kubeadm init:failed to pull image registry.k8s.io/pause:3.6

这篇具有很好参考价值的文章主要介绍了kubeadm init:failed to pull image registry.k8s.io/pause:3.6。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

错误信息:

Unfortunately, an error has occurred:
        timed out waiting for the condition

This error is likely caused by:
        - The kubelet is not running
        - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled)

If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands:
        - 'systemctl status kubelet'
        - 'journalctl -xeu kubelet'

Additionally, a control plane component may have crashed or exited when started by the container runtime.
To troubleshoot, list all containers using your preferred container runtimes CLI.
Here is one example how you may list all running Kubernetes containers by using crictl:
        - 'crictl --runtime-endpoint unix:///var/run/containerd/containerd.sock ps -a | grep kube | grep -v pause'
        Once you have found the failing container, you can inspect its logs with:
        - 'crictl --runtime-endpoint unix:///var/run/containerd/containerd.sock logs CONTAINERID'
couldn't initialize a Kubernetes cluster

查看出错原因:

journalctl -xeu kubelet | grep error

出错日志如下:

"Error syncing pod, skipping" err="failed to \"CreatePodSandbox\" for \"etcd-node1_kube-system(9de77c96e322a151c753f92a3e230dc0)\" with CreatePodSandboxError: \"Failed to create sandbox for pod \\\"etcd-node1_kube-system(9de77c96e322a151c753f92a3e230dc0)\\\": rpc error: code = DeadlineExceeded desc = failed to get sandbox image \\\"registry.k8s.io/pause:3.6\\\": failed to pull image \\\"registry.k8s.io/pause:3.6\\\": failed to pull and unpack image \\\"registry.k8s.io/pause:3.6\\\": failed to resolve reference \\\"registry.k8s.io/pause:3.6\\\": failed to do request: Head \\\"https://us-west2-docker.pkg.dev/v2/k8s-artifacts-prod/images/pause/manifests/3.6\\\": dial tcp 173.194.174.82:443: i/o timeout\"" pod="kube-system/etcd-node1" podUID=9de77c96e322a151c753f92a3e230dc0

出错原因分析:

拉取 registry.k8s.io/pause:3.6 镜像失败 导致sandbox 创建不了而报错

 解决方法:

# 生成 containerd 的默认配置文件

containerd config default > /etc/containerd/config.toml

# 查看 sandbox 的默认镜像仓库在文件中的第几行

cat /etc/containerd/config.toml | grep -n "sandbox_image"

# 使用 vim 编辑器 定位到 sandbox_image,将 仓库地址修改成 k8simage/pause:3.6

vim /etc/containerd/config.toml

sandbox_image = " registry.aliyuncs.com/google_containers/pause:3.6"

# 重启 containerd 服务

systemctl daemon-reload
systemctl restart containerd.service

# init

kubeadm init ......文章来源地址https://www.toymoban.com/news/detail-624322.html

到了这里,关于kubeadm init:failed to pull image registry.k8s.io/pause:3.6的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Kubernetes Pod报错 filed to get sandbox image “k8s.gcr.io/pause:3.6“

            最近工作中在部署Pod后发现无法正常启动,查看Pod详情后看到以下报错信息:         问题的原因是因为调度的这台服务器上没有 k8s.gcr.io/pause:3.6 镜像,所以我们把镜像下载到这台服务器就可以了,执行命令:         到此 Kubernetes Pod报错 filed to get sandbox image

    2024年02月16日
    浏览(35)
  • 使用代理下载国外源registry.k8s.io镜像,并传到docker hub私有镜像库

    日常的生产开发中,免不了从国外拉取镜像,但有个问题,我们可能访问不到那个镜像源,因此需要使用代理 https://labs.play-with-docker.com 具体步骤 使用docker hub账号登录上述代理 执行pull下载你要的镜像 登录docker hub 创建一个仓库 在代理界面对下载的镜像打上tag 比如 在代理里

    2024年02月11日
    浏览(58)
  • K8s错误处理:Failed to create pod sandbox

    K8s创建Pod时,使用kubectl describe命令查看Pod事件,发现在拉取镜像前出现报错,报错内容为: 该文件为DNS配置文件,一般由systemd-resolved服务管理,不能由用户修改。那些指点的人说把Master里的复制一份到Node中的人,实际上是行不通的。 如果你的systemd-resolved服务状态是active的

    2024年02月12日
    浏览(37)
  • k8s Failed to create pod sandbox错误处理

    错误信息: Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull and unpack image \\\"k8s.gcr.io/pause:3.2\\\": failed to resolve reference \\\"k8s.gcr.io/pause:3.2\\\": failed to do request: Head \\\"https://k8s.gcr.io/v2/pause/manifests/3.2\\\": dial

    2024年02月16日
    浏览(88)
  • k8s 启动 elasticsearch 失败: [failed to bind service]

    具体的错误信息 k logs -f elasticsearch-0 -n kube-system 排查最后导致启动失败的原因是,我的 elasticsearch 使用到了 pv、pvc 来做持久化存储,但是 elasticsearch 对我的挂载目录没有执行权限。 chmod 777 elasticsearch 之后重启 pod 即可。

    2024年02月15日
    浏览(45)
  • 记【k8s】 节点kubeadm join报错:The HTTP call equal to ‘curl -sSL http://localhost:10248/healthz‘

    💖The Begin💖点点关注,收藏不迷路💖

    2024年04月26日
    浏览(35)
  • K8S:kubeadm搭建K8S+Harbor 私有仓库

    主机名及主机大小 主机ip 安装软件 master(2C/4G,cpu核心数要求大于2) 192.168.245.113 docker、kubeadm、kubelet、kubectl、flannel node01(2C/2G) 192.168.245.114 docker、kubeadm、kubelet、kubectl、flannel node02(2C/2G) 192.168.245.115 docker、kubeadm、kubelet、kubectl、flannel Harbor节点(hub.blue.com) 192.168.245

    2024年02月09日
    浏览(36)
  • 解决k8s node节点报错: Failed to watch *v1.Secret: unknown

    现象:  这个现象是发生在k8s集群证书过期,重新续签证书以后。 记得master节点的/etc/kubernetes/kubelet.conf文件已经复制到node节点了。 但是为什么还是报这个错,然后运行证书检查命令看一下:   看样子是差/etc/kubernetes/pki/apiserver.crt文件。 但是从master节点scpapiserver.crt文件以

    2024年01月16日
    浏览(38)
  • kubeadm 安装k8s

    目录 安装k8s 环境准备 所有节点,关闭防火墙规则,关闭selinux,关闭swap交换(必须关闭swap分区)  //修改主机名  //所有节点修改hosts文件  //调整内核参数 所有节点安装docker  所有节点安装kubeadm,kubelet和kubectl 定义kubernetes源 开机自启kubelet 部署K8S集群 查看初始化需要的镜

    2024年02月09日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包