Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry
猜测:
出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息
解决方案:
我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml
错误原因:
我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了文章来源:https://www.toymoban.com/news/detail-677889.html
文章来源地址https://www.toymoban.com/news/detail-677889.html
到了这里,关于Spark整合hive的时候出错的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!