k8s中的pod不停的重启,定位问题原因与解决方法

这篇具有很好参考价值的文章主要介绍了k8s中的pod不停的重启,定位问题原因与解决方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

现象:running的pod,短时间内重启次数太多

k8s pod 重启,kubernetes,linux,容器,运维开发,云原生

 定位问题方法:查看pod日志

kubectl get event                           #查看当前环境一个小时内的日志
kubectl describe pod pod_name               #查看当前pod的日志    

kubectl  logs -f  pod_name --previous       #查看重启之前的那一次pod的日志,从那一刻开始计算


###############
一般用以上的三个命令就行

本次使用以下命令,解决了问题

kubectl describe pod pod_name     

问题原因:OOM,pod被kill掉,重启了(内存不够用)

k8s pod 重启,kubernetes,linux,容器,运维开发,云原生

 查看该服务的deployment.yaml文件

k8s pod 重启,kubernetes,linux,容器,运维开发,云原生

发现我们deployment.yaml对服务的内存使用,做了限制

解决方法:将limit的memory数值提高,然后delete  -f yaml,再apply -f yaml


新人创作不易,觉得不错的看官,点个赞吧,么么哒!!!

转载注明出处!

                                                     k8s pod 重启,kubernetes,linux,容器,运维开发,云原生文章来源地址https://www.toymoban.com/news/detail-611374.html

到了这里,关于k8s中的pod不停的重启,定位问题原因与解决方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 问题记录:K8s中安装calico,calico反复重启,原因:版本未匹配

    K8s版本1.23.6 calico-node-反复重启,READY状态一直为0,STATUS为CrashLoopBackOff, 查看节点日志 没有错误,只有info信息 但是一直反复重启,导致coredns一直处于未准备好状态 calico与k8s的版本未匹配 删除calico,重新安装对应k8s版本 先删除calico pod 删掉calico.yaml文件 重新下载 k8s版本1.

    2024年02月09日
    浏览(42)
  • 案例分享-full gc导致k8s pod重启

     在之前的记一次k8s pod频繁重启的优化之旅中分享过对于pod频繁重启的一些案例,最近又遇到一例,继续分享出来希望能给大家带来些许收获。 报警群里突然显示某pod频繁重启,我随即上去查看日志,主要分这么几步:   1.查看pod重启的原因,kubectl descirbe pod 上面的Reason:

    2024年02月02日
    浏览(53)
  • K8s(四)Pod资源——pod生命周期、重启策略、容器钩子与容器探测

    目录 Pod生命周期 Pod重启策略 初始化容器 容器钩子 容器探测 启动探测 存活探测 就绪探测 参考资料 Pod 的生命周期 | Kubernetes Init 容器 | Kubernetes Pod的生命周期可以分为以下几个阶段: Pending(等待):在这个阶段,Pod被创建,并且正在等待被调度到一个节点上运行。此时,

    2024年01月20日
    浏览(48)
  • k8s的node节点重启后pod不正常运行

    同事在k8s集群中的node3跑算法时候,把node3打崩了,导致kubelet服务不能正常运行和集群通信。 先将node节点打上不可调度标签,然后执行驱逐。 已经看到pod在其他节点创建出来的,但是node3上面的pod仍然处于terminating状态。 刚开始我以为是磁盘io仍然太高,导致它延迟,等同事

    2024年02月07日
    浏览(43)
  • k8s重启Pod报错0/4 nodes are available

    当您在Kubernetes中使用 kubectl delete pod 命令删除Pod,并在Pod的定义中指定了nodeSelector时,可能会出现“0/4 nodes are available”的错误。这是因为Kubernetes调度程序在找不到符合nodeSelector条件的节点时,会将Pod设置为挂起状态,直到可用节点出现为止。 要解决这个问题,您可以采取以

    2024年02月16日
    浏览(50)
  • K8S 1.27 新特性 Pod 无需重启调整CPU内存资源

    如果您已经部署了指定 CPU 或 Memory 资源的 Kubernetes pod,可能已经注意到更改资源值涉及重新启动 pod。直到现在,这一直是运行工作负载的破坏性操作。 在 Kubernetes v1.27 中,添加了一个新的 alpha 功能,允许用户在不重启容器的情况下调整分配给 Pod 的 CPU 或 memory 资源的大小。

    2024年02月11日
    浏览(37)
  • k8s主节点部署pod状态一直是pending原因排除,并彻底删除pod技巧

    一般来说,master节点是会产生一个污点,不允许部署pod的。 如果其他原因也可以使用这个命令检查状态原因 当出现类似这样问题 问题描述: Warning FailedScheduling 40s (x28 over 28m) default-scheduler 0/1 nodes are available: 1 node(s) had untolerated taint {node-role.kubernetes.io/master: }, that the pod didn’

    2024年01月19日
    浏览(44)
  • K8S基本概念+pod生命周期+容器重启策略+Init容器和边车容器+pod探针+postStart和preStop

    Kubernetes是谷歌以Borg为前身,基于谷歌15年生产环境经验的基础上开源的一个项目,Kubernetes致力于提供跨主机集群的自动部署、扩展、高可用以及运行应用程序容器的平台。 kube-APIServer:集群的控制中枢,各个模块之间信息交互都需要经过Kube-APIServer,同时它也是集群管理、资

    2024年04月15日
    浏览(53)
  • k8s pod 处于Terminating的原因分析和解决处理——筑梦之路

    之前整理了一下各种资源长时间无法回收,解决处理的命令行 k8s 各种资源Terminationg状态处理 —— 筑梦之路_k8s自定义资源修改状态-CSDN博客 这里具体整理下pod长时间处于Terminating状态的相关知识,主要是对前面的补充和完善,作为笔记记录。 当我们要删除一个Pod时,Kuberne

    2024年02月03日
    浏览(35)
  • 【k8s】K8S中的cordon、uncordon和drain 冻结节点、驱离pod

    Kubernetes(K8s)中使用Kubectl 命令行工具管理 Kubernetes 集群。 kubectl 在 $HOME/.kube 目录中查找一个名为 config 的配置文件。 可以通过设置 KUBECONFIG 环境变量或设置 --kubeconfig 参数来指定其它 kubeconfig 文件。本文主要介绍Kubernetes(K8s)中kubectl cordon, drain, uncordon 常用命令。 1、Kubectl语法

    2024年03月22日
    浏览(75)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包