我的hadoop版本是3.1.3,Flink版本是1.14。不知道是hadoop版本的原因还是Flink版本更新的原因。当我运行一个简单的Flink测试时,虽然结果出来了但是后面还跟着一段报错信息。
测试命令:
flink run -m yarn-cluster -p 2 -yjm 2G -ytm 2G $FLINK_HOME/examples/batch/WordCount.jar
报错信息:
Trying to access closed classloader. Please check if you store classloaders directly or indirectly in static fields. If the stacktrace suggests that the leak occurs in a third party library and cannot be fixed immediately, you can disable this check with the configuration 'classloader.check-leaked-classloader'.
解决方法:
修改:flink/conf 的 flink-conf.yaml文件
添加:
classloader.check-leaked-classloader: false文章来源:https://www.toymoban.com/news/detail-505055.html
注意:false前需要加上一个空格文章来源地址https://www.toymoban.com/news/detail-505055.html
到了这里,关于Flink1.14提交任务报错classloader.check-leaked-classloader问题解决的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!