一. 问题描述
StarRocks版本 2.5.5
现在需要使用hive外表,然后根据官网的的命令创建了hive resource
CREATE EXTERNAL RESOURCE “hive0”
PROPERTIES (
“type” = “hive”,
“hive.metastore.uris” = “thrift://myhadoop:9083”
);
然后查询报错:
starrocks [42000][1064] hdfsOpenFile failed
二. 解决方案
StarRocks的committer在论坛回复我了,原来是打包的问题。
没想到打包名字居然是写死的,而且hive catalog居然受到spark 客户端的影响。文章来源:https://www.toymoban.com/news/detail-487026.html
spark jar 打包名字需要是 spark-2x.zip
(既不能是spark.zip 也不能是spark-24.zip, 需要在配置文件中写死为 spark-2x.zip)
https://docs.starrocks.io/zh-cn/latest/loading/SparkLoad#配置-spark-客户端 1文章来源地址https://www.toymoban.com/news/detail-487026.html
到了这里,关于StarRocks案例5: hive外表报错starrocks [42000][1064] hdfsOpenFile failed的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!