Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

这篇具有很好参考价值的文章主要介绍了Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前提

已经安装好Hadoop、Hive(可以启动hiveserver2)、Zeppelin

1.启动Hadoop

[root@hurys24 ~]# start-all.sh


2.启动hiveserver2

[root@hurys24 ~]# cd /opt/soft/hive312/conf/
[root@hurys24 conf]# nohup ../bin/hive --service hiveserver2 &
[1] 27593
[root@hurys24 conf]# nohup: ignoring input and appending output to ‘nohup.out’

[root@hurys24 conf]# beeline -u jdbc:hive2://hurys24:10000/ -n root
Connecting to jdbc:hive2://hurys24:10000/
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 3.1.2 by Apache Hive
0: jdbc:hive2://hurys24:10000/> 

3.启动Zeppelin

[root@hurys24 ~]# cd /opt/soft/zepplin090/bin/
[root@hurys24 bin]# ./zeppelin-daemon.sh  start
Zeppelin start                                             [  OK  ]
 

三个都启动好后jps查看一下

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

二、登录Zeppelin页面

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 三、创建并配置 Interpreter

第一步,点击页面右侧anonymous——Interpreter注释器

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第二步,点击Create创建新的注释器

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第三步,在Interpreter Name中输入注释器的名字(自己随意,我这里填的是hive)

               在Interpreter group中选择jdbc

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第四步,在Properties部分

 在default url                   jdbc:hive2://hurys24:10000         (这个根据自己服务器地址和端口号修改)

在default user                 root

在default driver              org.apache.hive.jdbc.HiveDriver                (这个必须一样)

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第五步,在Dependencies

注意:在连接Hive1.1.0版本时是不需要配置这部分的,但是Hive3.1.2版本是一定要配置这部分的

Hive2.X的版本也需要配置这部分jar包(在一篇博客上看到过)

这些jar在自己Hive的安装路径的lib目录下都可以找到

主要分为7类jar包:一是jdbc;二是service;三是common;四是guava;五是exec;                                                   六是cli;七是serde     

(其中六与七是我看其他博客后来加上去的,一到五我自己测试过没问题,不过油多不坏菜,多加点jar包也不是坏事)

Hive3.1.2需要配置的jar包如下

/opt/soft/hive312/lib/hive-jdbc-3.1.2.jar

/opt/soft/hive312/lib/hive-jdbc-handler-3.1.2.jar

/opt/soft/hive312/lib/hive-service-3.1.2.jar

/opt/soft/hive312/lib/hive-service-rpc-3.1.2.jar

/opt/soft/hive312/lib/hive-common-3.1.2.jar

/opt/soft/hive312/lib/guava-27.0-jre.jar

/opt/soft/hive312/lib/hive-exec-3.1.2.jar

/opt/soft/hive312/lib/hive-cli-3.1.2.jar

/opt/soft/hive312/lib/hive-serde-3.1.2.jar

jar包配置好后,点击save保存即可

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第六步,保存好后退出查看,hive注释器为绿色,说明已准备好

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 四、创建note

第一步,点击Notebook——Create new note

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 第二步,在Note Name输入hive0414(自己可以修改)

              在Default  Interpreter选择我们刚才新建的hive注释器

 填好后,点击Create

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

 五、测试并使用note

note一创建好就会直接进入,先写条SQL语句测试一下,注意没有分号

%hive
show databases

如果能够成功运行SQL,说明Zeppelin成功连接Hive312!!!

Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)

一定要注意创建Interpreter注释器Dependencies的jar包配置,很多博客都没有这部分,结果坑惨了!!!

乐于奉献共享,帮助你我他!!!文章来源地址https://www.toymoban.com/news/detail-413180.html

到了这里,关于Zeppelin0.9.0 连接 Hive 3.1.2(踩坑,亲测有效)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Java 访问连接Hive的Kerberos认证前提

    The reason why authentication needs to be added when connecting to Hive in the Java code is that Hive is a distributed data processing system that is typically deployed in a multi-user environment, where access to data is controlled by policies and permissions. Therefore, to ensure the security and integrity of the data, it is necessary to authenticate users

    2024年02月07日
    浏览(36)
  • torch_geometric踩坑实战--安装与运行 亲测有效!!

    torch_geometric是PyG中必不可少的一个包,也是进行图神经网络学习的必备,然而安装这个包并运行一段简单的代码踩了不少坑,记录一下。 一开始,我直接pip 果然报错,提示没有torch_sparse 很显然是没有 安装依赖 ,于是我去查需要哪些依赖 官网地址:Installation — pytorch_geome

    2024年02月11日
    浏览(32)
  • 一百零八、Kettle采集Kafka数据到HDFS(踩坑,亲测有效)

    Kafka到HDFS,除了用Kafka API和flume之外,还可以用kettle,最大优点是不用写代码! 版本:Kettle版本:8.2、Hadoop版本:3.1.3 前提:    详情请看鄙人的一百零一、Kettle8.2.0连接Hive3.1.2(踩坑,亲测有效) http://t.csdn.cn/mWfOC http://t.csdn.cn/mWfOC 前提一、Hadoop系列配置文件已复制到kettle路径

    2024年02月15日
    浏览(29)
  • Hive312的计算引擎由MapReduce(默认)改为Spark(亲测有效)

    一、Hive引擎包括:默认MR、tez、spark 在低版本的hive中,只有两种计算引擎mr, tez 在高版本的hive中,有三种计算引擎mr, spark, tez 二、Hive on Spark和Spark on Hive的区别 Hive on Spark:Hive既存储元数据又负责SQL的解析,语法是HQL语法,执行引擎变成了Spark,Spark负责采用RDD执行。 Spark o

    2024年02月02日
    浏览(27)
  • 一百零六、Hive312的计算引擎由MapReduce(默认)改为Spark(亲测有效)

    一、Hive引擎包括:默认MR、tez、spark 在低版本的hive中,只有两种计算引擎mr, tez 在高版本的hive中,有三种计算引擎mr, spark, tez 二、Hive on Spark和Spark on Hive的区别 Hive on Spark:Hive既存储元数据又负责SQL的解析,语法是HQL语法,执行引擎变成了Spark,Spark负责采用RDD执行。 Spark o

    2024年02月05日
    浏览(35)
  • zeppelin的hive使用

    配置项 Hive使用:点击create new note Default Interpreter选择hive

    2024年02月16日
    浏览(27)
  • Hive on Zeppelin

    ** ** 官网:zeppelin.apache.org 做大数据的人应该对Hive不陌生,Hive应该是大数据SQL引擎的鼻祖。历经多个版本的改进,现在的Hive3已经具备比较完善的ACID功能,能够同时满足交互式查询和ETL 两种场景。 那怎么来用hive呢 ?如果你还在用beeline来跑hive sql的话,你就弱爆了,来看看

    2024年02月12日
    浏览(50)
  • hive工具-zeppelin部署

    解压安装包至/opt/soft 并改名 /etc/proofile 中配置环境变量并source生效 #ZEPPELIN export ZEPPELIN_HOME=/opt/soft/zeppelin010 export PATH=$ZEPPELIN_HOME/bin:$PATH (1)conf目录下拷贝一份初始配置文件 [root@kb129 conf]# pwd /opt/soft/zeppelin010/conf cp ./zeppelin-site.xml.template ./zeppelin-site.xml (2)编辑配置文件vim

    2024年02月08日
    浏览(24)
  • [WinError 10061] 由于目标计算机积极拒绝,无法连接 亲测有效

    如果使用下面的方面没有用,请换一个端口号,关闭下 面所有的窗口,重新使用下面的方面试一下 第一步: 按住windows键+R键,输入regedit 打开注册表 第二步: 在弹出的界面中找到 HKEY_CURRENT_USER SOFTWARE Microsoft Windows CurrentVersion Internet Settings 下面找到ProxyEnable将十六进制的

    2024年02月04日
    浏览(52)
  • 【亲测有效】错误代码0x904,远程桌面连接异常终端问题

    使用远程连接时出现如下报错,该情况一般发生在 windows 11 上 注:如果“允许其他应用”是灰色无法选择,按照如下点击“更改设置”即可

    2024年02月12日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包