return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.

这篇具有很好参考价值的文章主要介绍了return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. 集群环境

  1. 错误由来

  1. 错误原因

  1. 错误分析

  1. 解决办法

return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.,大数据Hadoop,spark,Powered by 金山文档

1、集群环境

CDH集群5.16.1 ,hive的引擎是spark。

2、错误由来

今天在生产环境的集群里跑hive任务,报错

Job failed with org.apache.spark.SparkException: Job aborted due to stage failure: Task 7 in stage 14.0 failed 4 times, most recent failure: Lost task 7.3 in stage 14.0 (TID 2055, cdh093, executor 259): ExecutorLostFailure (executor 259 exited caused by one of the running tasks) Reason: Executor heartbeat timed out after 139900 msFAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job failed during runtime. Please check stacktrace for the root cause.

3、错误原因

这个错误是因为hive的map join参数默认是开启的:

hive.auto.convert.join=true

使用hive进行map join时, 节点内存不够就会报该类型错误。

4、错误分析

MapJoin是指在Map 端进行join,其原理是broadcast join,即把小表作为一个完整的驱动表来进行join操作。通常情况下,要连接的各个表里面的数据会分布在不同的Map中进行处理。即同一个Key对应的Value可能存在不同的Map中。这样就必须等到 Reduce中去连接。要使MapJoin能够顺利进行,那就必须满足这样的条件:除了一份表的数据分布在不同的Map中外,其他连接的表的数据必须在每个Map中有完整的拷贝。Map Join会把小表全部读入内存中,在Map阶段直接拿另外一个表的数据和内存中表数据做匹配 (这时可以使用Distributed Cache将小表分发到各个节点上,以供Mapper加载使用),由于在map时进行了join操作,省去了reduce运行的效率也会高很多。

当机器内存不足时,无法在Map端进行join,即会报错。

5、解决办法

1、可以关闭上面的map join 改为common join

shell命令行:set hive.auto.convert.join=false

  1. 修改配置文件下的参数可以把map join 关闭,使用common join

修改完成后,数据开发人员跑任务反馈正常。文章来源地址https://www.toymoban.com/news/detail-597903.html

到了这里,关于return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包