k8s node NotReady

这篇具有很好参考价值的文章主要介绍了k8s node NotReady。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

NotReady

If a Kubernetes node is notReady, it means that the node is not able to perform its intended functions and is not available for scheduling new workloads. There are several reasons why a node may be notReady, including:

  1. Network issues: If the node loses its network connectivity, it may become notReady.

  2. Resource exhaustion: If the node runs out of resources like CPU or memory, it may become notReady.

  3. Node failure: If the node crashes or experiences hardware failure, it may become notReady.

  4. Kubernetes component failure: If a critical Kubernetes component like kubelet or kube-proxy fails on the node, it may become notReady.

To troubleshoot a notReady node, you can:

  1. Check the node status using the kubectl command: kubectl get nodes

  2. Check the node logs using the kubectl command: kubectl describe <node-name> kubectl describe node > node.log

  3. Check the kubelet logs on the node: journalctl -xeu kubelet journalctl -xeu kubelet > kubelet.log | systemctl status kubelet

  4. Check the system logs on the node: /var/log/messages

  5. Check the Kubernetes event logs using the kubectl command: kubectl get events

  6. Check the docker and : systemctl status docker && systemctl status containerd | more

Once you identify the root cause of the notReady node, you can take appropriate actions to resolve the issue. For example, if the node is notReady due to resource exhaustion, you can add more resources or adjust the resource limits for the workloads running on the node. If the node is notReady due to network issues, you can troubleshoot the network connectivity and fix any issues.

Case @1

k8s node NotReady

Issues

处理方案

systemctl restart kubelet

Case @2

controller.go:178] failed to update node lease, error: etcdserver: request timed out

request timed out

Case @ 3

container runtime status check may not have completed yet.

k8s node NotReady
https://github.com/kubernetes/kubernetes/issues/101056
k8s node NotReady

原因
容器把docker搞崩了,然后节点就异常了!

处理方案
for p in $(docker ps -q); do echo inspecting $p; docker inspect $p; echo complete; done;
ps -ef | grep 最后的id
kill 掉该进程

Case @4


Warning  InvalidDiskCapacity      101s                 kubelet          invalid capacity 0 on image filesystem

解决方案:systemctl restart containerd

Case @5

k8s node NotReady

k8s node NotReady
原因:改节点时间和其他节点时间不一致导致。文章来源地址https://www.toymoban.com/news/detail-416943.html

到了这里,关于k8s node NotReady的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解决K8S节点NotReady状态

    问题场景 使用 kubectl get node 指令查看节点状态 检查kubeadm的文件,检查k8s初始化信息,情况正常 查看系统中的pod,发现少了一个flannel的pod 出现pod的NotReady这个问题的情况不一样,有的人是flannel有但是状态是Error: ErrImagePull,这种情况下可以删除后重试,删除指令: kubectl de

    2024年02月11日
    浏览(36)
  • K8S-节点notReady如何处理?

    使用vmWare虚拟机部署K8S集群,将虚拟机挂起重启后其中一个节点显示notReady状态,为解决该问题,进行了如下处理。  1.查看node节点的详细信息 没有找到问题。 2.确定不存在网络问题 在node节点,执行下述命令 3.查看kubelet状态 在node节点,执行下述命令 有报错信息,但不全。

    2024年02月15日
    浏览(35)
  • ·[K8S:使用calico网络插件]:解决集群节点NotReady问题

    执行: wget --no-check-certificate https://projectcalico.docs.tigera.io/archive/v3.25/manifests/calico.yaml 1.2.1:查看本机ip 网卡相关信息: 1.2.2:修改calico.yaml网卡interface相关信息 1.3.1:异常日志抛出: 1.3.2:场景一:执行K8S admin config配置文件替换相关操作: 1.3.2:场景二:执行K8S admin config配置文

    2024年02月14日
    浏览(47)
  • k8s集群网络插件搭建——————解决集群notready(k8s1.20版本,docker24)

            前面已经提到,在初始化 k8s-master 时并没有网络相关配置,所以无法跟 node 节点通信,因此状态都是“NotReady”。但是通过 kubeadm join 加入的 node 节点已经在k8s-master 上可以看到。  那么,这个时候我们该怎么办呢???????? 安装flannel         Master 节点

    2024年02月13日
    浏览(32)
  • k8s部署解成功解决node节点一直处于NotReady状态的问题,报错failed to load Kubelet config file /var/lib/kubelet/config.yaml

    我在部署k8s的时候host1节点一直显示NotReady 报错便报,直接经典看日志解决问题思路哈哈哈 看日志找报错点,找问题解决问题,思路一定要清晰。 在host1节点中查看报错信息,代码: 由日志信息可知,报错原因是不能从/var/llib/kubelet/config.yaml下载到kubelet的配置。 错误原因估计

    2024年02月11日
    浏览(32)
  • kubeadm 安装k8s集群后,master节点notready问题解决方案

    使用kubeadm 安装k8s集群后,加载calico cni 网络组件后,master节点notready问题 表现为: 使用命令查看日志:journalctl -f -u kubelet 报错如下: Failed to start ContainerManager failed to initialize top level QOS containers: failed to update top level Burstable QOS cgroup : failed to set supported cgroup subsystems for cgroup

    2024年01月22日
    浏览(39)
  • 【K8S】docker和K8S(kubernetes)理解?docker是什么?K8S架构、Master节点 Node节点 K8S架构图

    一、docker的问世         在LXC(Linux container)Linux容器虚拟技术出现之前,业界网红是虚拟机。虚拟机技术的代表,是VMWare和OpenStack。 虚拟机是什么?         虚拟机其实就是 在你的操作系统里面,装一个软件,然后通过这个软件,再模拟一台甚至多台“子电脑”出来。

    2024年03月26日
    浏览(49)
  • Kubernetes(k8s):Pod 的 Node Selector详解

    💖The Begin💖点点关注,收藏不迷路💖 Node Selector是Kubernetes中一个用于指定Pod部署位置的重要概念。通过Node Selector,用户可以将Pod调度到具有特定标签的节点上。 这种标签通常用于区分节点的硬件配置、地理位置、网络特性等。通过合理地设置Node Selector,用户可以优化应用

    2024年04月08日
    浏览(69)
  • 记Kubernetes(k8s)初始化报错:“Error getting node“ err=“node \“k8s-master\“ not found“

    💖The Begin💖点点关注,收藏不迷路💖 \\\"Error getting node\\\" err=\\\"node \\\"k8s-master\\\" not found\\\" 查看日志报错: [root@k8s-master ~]# journalctl -u kubelet 1、操作系统centos7.9 2、docker 版本检查 3、kubelet 版本检查 查找资料: Kubernetes在v1.24版本之后正式放弃了对Docker的支持。这意味着Kubernetes的官方

    2024年04月14日
    浏览(38)
  • 云原生 黑马Kubernetes教程(K8S教程)笔记——第一章 kubernetes介绍——Master集群控制节点、Node工作负载节点、Pod控制单元

    参考文章:kubernetes介绍 本章节主要介绍应用程序在服务器上部署方式演变以及kubernetes的概念、组件和工作原理。 在部署应用程序的方式上,主要经历了三个时代: 传统部署:互联网早期,会直接将应用程序部署在物理机上 优点:简单,不需要其它技术的参与 缺点:不能为

    2024年02月04日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包