k8s 启动 elasticsearch 失败: [failed to bind service]

这篇具有很好参考价值的文章主要介绍了k8s 启动 elasticsearch 失败: [failed to bind service]。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

具体的错误信息

  • k logs -f elasticsearch-0 -n kube-system
"stacktrace": ["org.elasticsearch.bootstrap.StartupException: ElasticsearchException[failed to bind service]; nested: AccessDeniedException[/usr/share/elasticsearch/data/nodes];",
"at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:163) ~[elasticsearch-7.14.0.jar:7.14.0]",
"at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:150) ~[elasticsearch-7.14.0.jar:7.14.0]",
"at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:75) ~[elasticsearch-7.14.0.jar:7.14.0]",
"at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:116) ~[elasticsearch-cli-7.14.0.jar:7.14.0]",
"at org.elasticsearch.cli.Command.main(Command.java:79) ~[elasticsearch-cli-7.14.0.jar:7.14.0]",
"at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:115) ~[elasticsearch-7.14.0.jar:7.14.0]",
"at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:81) ~[elasticsearch-7.14.0.jar:7.14.0]",
"Caused by: org.elasticsearch.ElasticsearchException: failed to bind service",

排查最后导致启动失败的原因是,我的 elasticsearch 使用到了 pv、pvc 来做持久化存储,但是 elasticsearch 对我的挂载目录没有执行权限。

  • chmod 777 elasticsearch

之后重启 pod 即可。文章来源地址https://www.toymoban.com/news/detail-605514.html

到了这里,关于k8s 启动 elasticsearch 失败: [failed to bind service]的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • K8S之Kuboard显示已导入【创建 X509KeyPair 失败】 tls: failed to find any PEM data in certificate input

    kuboard用着用着,突然发现,只是 已导入 状态,而不是 已就绪 的状态,且重新导入kubeconfig显示 【创建 X509KeyPair 失败】 tls: failed to find any PEM data in certificate input 的提示。 具体问题截图如下: 发现集群状态正常 发现pod状态也是运行正常的 也是OK的 既然都看上去正常,那么,

    2024年02月04日
    浏览(34)
  • k8s - kubelet启动失败处理记录

    测试环境好久没有使用了,启动kubelet发现失败了,查看状态,每看到具体报错点: [root@node1 ~]# systemctl status kubelet ● kubelet.service - kubelet: The Kubernetes Node Agent    Loaded: loaded (/usr/lib/systemd/system/kubelet.service; disabled; vendor preset: disabled)   Drop-In: /usr/lib/systemd/system/kubelet.service.d  

    2024年01月25日
    浏览(40)
  • Linux 中启动 Docker 服务时遇到错误消息 `failed to start docker.service: unit docker.service is masked` 启动失败的解决方法

    如果在 Linux 中启动 Docker 服务时遇到错误消息 `failed to start docker.service: unit docker.service is masked`,那么说明 Docker 服务已经被系统禁用了。 在 Linux 系统中,可以使用 `systemctl` 命令来管理系统服务。如果某个服务被禁用,那么该服务的 `systemd` 单元文件会被标记为 \\\"masked\\\"。标记

    2024年02月15日
    浏览(41)
  • failed to get sandbox image “k8s.gcr.io/pause:3.6“: failed to pull image “k8s.gcr.io/pause:3.6“

    从日志能够看到k8s核心服务的pod创建失败,因为获取pause镜像失败,总是从k8s.gcr.io下载。 经过确认,k8s 1.26中启用了CRI sandbox(pause) image的配置支持。 之前通过kubeadm init –image-repository设置的镜像地址,不再会传递给cri运行时去下载pause镜像 而是需要在cri运行时的配置文件中设

    2024年02月16日
    浏览(39)
  • K8s错误处理:Failed to create pod sandbox

    K8s创建Pod时,使用kubectl describe命令查看Pod事件,发现在拉取镜像前出现报错,报错内容为: 该文件为DNS配置文件,一般由systemd-resolved服务管理,不能由用户修改。那些指点的人说把Master里的复制一份到Node中的人,实际上是行不通的。 如果你的systemd-resolved服务状态是active的

    2024年02月12日
    浏览(37)
  • k8s Failed to create pod sandbox错误处理

    错误信息: Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull and unpack image \\\"k8s.gcr.io/pause:3.2\\\": failed to resolve reference \\\"k8s.gcr.io/pause:3.2\\\": failed to do request: Head \\\"https://k8s.gcr.io/v2/pause/manifests/3.2\\\": dial

    2024年02月16日
    浏览(88)
  • k8s pod启动报错: no route to host

    查看pod命令 查看报错pod日志 命令: pod报错都一样: no route to host 原因: 找不到这个路由对应的地址,关闭防火墙,重启k8s,执行下面命令即可。 正常线上是不能关闭防火墙,这个属于pod内部之间的host调用失败,有大神知道的这种情况怎么处理的, 可以在评论区告知一下,

    2024年02月13日
    浏览(34)
  • 解决k8s node节点报错: Failed to watch *v1.Secret: unknown

    现象:  这个现象是发生在k8s集群证书过期,重新续签证书以后。 记得master节点的/etc/kubernetes/kubelet.conf文件已经复制到node节点了。 但是为什么还是报这个错,然后运行证书检查命令看一下:   看样子是差/etc/kubernetes/pki/apiserver.crt文件。 但是从master节点scpapiserver.crt文件以

    2024年01月16日
    浏览(38)
  • kubeadm init:failed to pull image registry.k8s.io/pause:3.6

    错误信息: Unfortunately, an error has occurred:         timed out waiting for the condition This error is likely caused by:         - The kubelet is not running         - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled) If you are on a systemd-powered system, you can try to troubleshoot

    2024年02月14日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包