不可用的ES节点重启后重新加入集群

这篇具有很好参考价值的文章主要介绍了不可用的ES节点重启后重新加入集群。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

如果一个之前不可用的ES节点重启后重新加入集群,而该节点上还有旧的数据,ES会做以下几件事:

  1. ES会发现node2上有旧的数据分片
  2. 会将node2上的分片标记为不可分配(unassigned)
  3. 会将node2上的分片数据与其他 Master eligible 节点上的 primary/replica 数据对比
  4. 如果数据不一致,ES会:
    • 保留其他节点的数据
    • 删除node2节点上不一致的数据
  5. 然后将需要的replica分片重新分配给node2
  6. node2上的replica分片将与其他primary/replica的数据进行同步
  7. 数据一致后,node2上的分片才会变为可用(assigned)状态

整个流程相当于:

  • 删除node2上不一致的数据
  • 重新分配需要的replica分片给node2
  • 与其他节点的数据同步,让node2的数据保持一致
  • 将node2上的分片变为assigned状态

所以总的来说:

  • ES会检查node2上的数据是否存在没有 replicate 的分片
  • 如果有,会将这些分片标记为unassigned,然后删除
  • 然后将需要的replica分片分配给node2
  • 数据同步后,node2上分片变为assigned状态
  • 确保了集群的数据一致性

所以即使node2重新加入集群时上面还有旧数据,通过上述步骤,数据最终也能保持一致。文章来源地址https://www.toymoban.com/news/detail-603886.html

到了这里,关于不可用的ES节点重启后重新加入集群的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • linux查看es节点使用情况,elasticsearch(es) 如何查看当前集群中哪个节点是主节点(master)

    elasticsearch 查看当前集群中的 master 节点是哪个需要使用 _cat 监控命令,具体如下。 查看方法 es 主节点确定命令,以 kibana 上查看示例如下: GET _cat/nodesv 返回结果示例如下: ip heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name 172.16.16.188 52 99 5 2.59 1.70 1.45 mdi - elastic3

    2023年04月15日
    浏览(43)
  • ES集群重新设置密码(第二次执行.elasticsearch-setup-passwords interactive报错)

    错误信息 当为es集群设置完一次密码之后,再次执行相同的命令 报错: 解决办法: 删除 .security-7 索引,然后重新执行上面命令即可,不用重启es集群

    2024年02月11日
    浏览(40)
  • 修改本地host文件加入可用ip使谷歌浏览器翻译插件重新生效

    修改本地host文件加入可用ip使谷歌浏览器翻译插件重新生效 第一步:找到host文件: 可以使用这个工具进行对Hosts文件进行一个查找 鼠标放到对应路径上面 点击鼠标右键,选择打开路径就到对应 路径了 也可以复制到这个路径下面去找hosts文件 C:WindowsSystem32driversetc 点击鼠

    2023年04月16日
    浏览(49)
  • docker-compose部署6.8.23版本elasticsearch+es-head+kibana多节点集群及部分排错处理

    现阶段很多elasticsearch部署都是7版本之上的,但部分要求是6.8版本,俩者很多配置参数存在差异问题,elasticsearch有状态服务,kubernetes和docker启动有点麻烦,最好用docker-compose启动,可以保证数据稳定。 节点信息 hosts信息 192.168.121.137 es-master 192.168.121.138 es-node1 master执行,node改

    2024年02月14日
    浏览(42)
  • k8s其他master节点加入集群命令

      kubeadm join 192.168.0.236:16443 --token 7t2weq.bjbawausm0jaxury         --discovery-token-ca-cert-hash sha256:92175a356db070deb2ddd3823e288e3005a4baeec9b68580dcc11ce4d3767195         --control-plane --certificate-key a01487c705d04e23832dafee30b06e9ef2ed9d946e9c5c1e869d915da043b640

    2024年01月18日
    浏览(45)
  • k8s node 误删除了如何自动创建 csr重新加入集群

    worker node 节点当部署晚 kubelet、kube-proxy就会加入集群,如何加入呢, 集群收到新的 csr 参考: https://kubernetes.io/zh-cn/docs/reference/access-authn-authz/certificate-signing-requests/ https://blog.csdn.net/Michaelwubo/article/details/113769391

    2024年02月13日
    浏览(45)
  • k8s集群加入一个新的node节点

    实验目的:在已有的k8s集群中加入一个新的node节点,并正常工作。 已有的k8s集群节点信息:centos7.9 kubeadm 安装kubernetes集群 192.168.206.130 master 192.168.206.131 k8s-node1 192.168.206.136 k8s-node2 新加入一个节点: 192.168.206.138 k8s-node3 kubectl get nodes  kubectl get nodes -o wide  在进行下面的步骤之

    2024年02月16日
    浏览(50)
  • k8s node节点加入集群,token过期

    1、master01节点执行  kubeadm token create --print-join-command 2、执行命令 kubeadm join 192.168.0.236:16443 --token qucd8q.hsfq4a1afluzaky3 --discovery-token-ca-cert-hash sha256:92175a356db070deb2ddd3823e288e3005a4baeec9b68580dcc11ce4d3767195 3、查看node02节点是否加入集群

    2024年01月18日
    浏览(43)
  • kafka集群节点重启后未被topic识别

    1.案例 kafka集群的节点重启后,topic为apex的主题识别不到重启后的broker节点id,但是还能识别到副本集还在原来的broker节点上 在kafka manager上查看  继续往下查看  2.查看kafka日志报错原因 以下是两个不同的broker节点报错的报错日志  tail -f /etc/kafka/kafka/logs/kafkaServer.out  这是b

    2023年04月18日
    浏览(36)
  • ceph集群管理节点高可用

    一、前言     ceph集群想要高可用也必须要有多个管理节点,不然只有单管理节点,在一个管理节点挂了的情况下就没法进行集群的管理,可以分为web管理和客户端管理,web管理和mgr服务相关,客户端管理和mon服务相关 二、部署     mgr高可用    mgr服务只有一个节点是活动的

    2024年04月15日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包