flink k8s sink到kafka报错 Failed to get metadata for topics

这篇具有很好参考价值的文章主要介绍了flink k8s sink到kafka报错 Failed to get metadata for topics。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

可能出现的3种报错

-- 报错1 
Failed to get metadata for topics [...].
org.apache.kafka.common.errors.TimeoutException: Call

-- 报错2
Caused by: org.apache.kafka.common.errors.TimeoutException: Timed out waiting to send the call. Call: fetchMetadata 
Heartbeat must be set lower than the session timeout 

-- 报错3
Timed out waiting for a node assignment. Call: describeTopics 

--文章来源地址https://www.toymoban.com/news/detail-725225.html

-- 解决方法: consumer的配置中 添加下面参数解决:  com.tuya.flink.EnergyMeteringMontior.Drive#buildKafkaProducer  
    // session.timeout.ms 默认10s
    kafkaProps.put("session.timeout.ms","10000")
    // heartbeat.interval.ms 默认3s
    kafkaProps.put("heartbeat.interval.ms","3000")

到了这里,关于flink k8s sink到kafka报错 Failed to get metadata for topics的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • K8S node节点执行kubectl get pods报错

    第一个问题是由第二个问题产生的,第二个问题也是最常见的 网上找的都是从master节点把文件复制过来,这样确实可以解决,但是麻烦,有一个node节点还好,如果有多个呢?每个都复制吗?下面是我从外网上找的解决方法 (错误二中) ,超实用,且方便 错误一: 这个错误基

    2024年04月15日
    浏览(37)
  • k8s搭建集群报错failed to set up sandbox container “xxx“ network for pod “coredns-xxx“:networkPlugin cni fa

    今天在搭建k8s集群时发现coredns一直处于containerCreating状态,如下图所示: 到相应的node节点上查看日志去排查问题: kubectl describe pods -n kube-system coredns-66bff467f8-n7q8f 发现报错的日志如下图: 我的是因为之前部署的时候选择了calico网络插件,这次启动选的是flannel,导致node节点上

    2024年02月16日
    浏览(28)
  • flink启动报错Failed to construct kafka producer

    flink local模式下启动 sink2kafka报错,具体报错如下 提取报错信息 Failed to construct kafka producer class org.apache.kafka.common.serialization.ByteArraySerializer is not an instance of org.apache.kafka.common.serialization.Serializer 代码 flink版本是14.6 kafkaProperties里存的是kafka的信息 本地起了一个sink2kafka的demo 也没

    2024年02月16日
    浏览(36)
  • k8s部署解成功解决node节点一直处于NotReady状态的问题,报错failed to load Kubelet config file /var/lib/kubelet/config.yaml

    我在部署k8s的时候host1节点一直显示NotReady 报错便报,直接经典看日志解决问题思路哈哈哈 看日志找报错点,找问题解决问题,思路一定要清晰。 在host1节点中查看报错信息,代码: 由日志信息可知,报错原因是不能从/var/llib/kubelet/config.yaml下载到kubelet的配置。 错误原因估计

    2024年02月11日
    浏览(32)
  • k8s 启动 elasticsearch 失败: [failed to bind service]

    具体的错误信息 k logs -f elasticsearch-0 -n kube-system 排查最后导致启动失败的原因是,我的 elasticsearch 使用到了 pv、pvc 来做持久化存储,但是 elasticsearch 对我的挂载目录没有执行权限。 chmod 777 elasticsearch 之后重启 pod 即可。

    2024年02月15日
    浏览(44)
  • K8s错误处理:Failed to create pod sandbox

    K8s创建Pod时,使用kubectl describe命令查看Pod事件,发现在拉取镜像前出现报错,报错内容为: 该文件为DNS配置文件,一般由systemd-resolved服务管理,不能由用户修改。那些指点的人说把Master里的复制一份到Node中的人,实际上是行不通的。 如果你的systemd-resolved服务状态是active的

    2024年02月12日
    浏览(37)
  • k8s Failed to create pod sandbox错误处理

    错误信息: Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull image \\\"k8s.gcr.io/pause:3.2\\\": failed to pull and unpack image \\\"k8s.gcr.io/pause:3.2\\\": failed to resolve reference \\\"k8s.gcr.io/pause:3.2\\\": failed to do request: Head \\\"https://k8s.gcr.io/v2/pause/manifests/3.2\\\": dial

    2024年02月16日
    浏览(88)
  • k8s报错的解决办法: kubelet的日志出现 Error getting node的报错。

    先看一下报错的图片 这是在初始化maser的时候报的错。 我的环境情况 k8s:1.22.12 docker: 18.06.3 操作系统以及内核版本 解决办法 首先检查你到底写没写错 确定你的主机名字无误后,那么就进行这一步吧,无奈之举了 修改docker的配置文件 修改kubelet的启动项 或者 直接使用老版本

    2023年04月09日
    浏览(37)
  • 【Flink-Kafka-To-RocketMQ】使用 Flink 自定义 Sink 消费 Kafka 数据写入 RocketMQ

    这里的 maven 依赖比较冗余,推荐大家都加上,后面陆续优化。 注意: 1、此程序中所有的相关配置都是通过 Mysql 读取的(生产环境中没有直接写死的,都是通过配置文件动态配置),大家实际测试过程中可以将相关配置信息写死。 2、此程序中 Kafka 涉及到了 Kerberos 认证操作

    2024年02月03日
    浏览(45)
  • kubeadm init:failed to pull image registry.k8s.io/pause:3.6

    错误信息: Unfortunately, an error has occurred:         timed out waiting for the condition This error is likely caused by:         - The kubelet is not running         - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled) If you are on a systemd-powered system, you can try to troubleshoot

    2024年02月14日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包