【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14]

这篇具有很好参考价值的文章主要介绍了【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14]。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HiveServer2 & Beeline

一、HiveServer2服务

在启动Hive的时候,除了必备的Metastore服务外,我们前面提过有2种方式使用Hive:

  • 方式1: bin/hive 即Hive的Shell客户端,可以直接写SQL
  • 方式2: bin/hive --service hiveserver2

后台执行脚本:nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

bin/hive --service metastore,启动的是元数据管理服务

bin/hive --service hiveserver2,启动的是HiveServer2服务

HiveServer2是Hive内置的一个ThriftServer服务,提供Thrift端口供其它客户端链接

可以连接ThriftServer的客户端有:

  • Hive内置的 beeline客户端工具(命令行工具)
  • 第三方的图形化SQL工具,如DataGrip、DBeaver、Navicat等

HIve的客户端体系如下:

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

启动

在hive安装的服务器上,首先启动metastore服务,然后启动hiveserver2服务。

#先启动metastore服务 然后启动hiveserver2服务
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

二、beeline

  • 在node1上使用beeline客户端进行连接访问。需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务。
  • Beeline是JDBC的客户端,通过JDBC协议和Hiveserver2服务进行通信,协议的地址是:jdbc:hive2://node1:10000

执行以下代码进行通信

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

连接成功,查看数据库完毕

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

DataGrip & DBeaver

一、Hive第三方客户端

DataGrip、Dbeaver、SQuirrel SQL Client等

可以在Windows、MAC平台中通过JDBC连接HiveServer2的图形界面工具

这类工具往往专门针对SQL类软件进行开发优化、页面美观大方,操作简洁,更重要的是SQL编辑环境优雅;SQL语法智能提示补全、关键字高亮、查询结果智能显示、按钮操作大于命令操作

二、DataGrip

DataGrip是由JetBrains公司推出的数据库管理软件,DataGrip支持几乎所有主流的关系数据库产品,如DB2、Derby、MySQL、Oracle、SQL Server等,也支持几乎所有主流的大数据生态圈SQL软件,并且提供了简单易用的界面,开发者上手几乎不会遇到任何困难

1、打开DataGrip,添加数据库

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

2、连接测试,Host为HS2所在服务器主机名

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

3、连接成功,在里面我们可以看到我们前面章节所创建的表,这样子就可以在里面操作我们的sql语句的。

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

三、DBeaver

1、打开DBeaver,创建hive连接

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

2、配置驱动,因为DBeaver里内置的驱动有点问题,需要我们手动的去编辑驱动。

删除所有库,上传hive-jdbc-3.1.2-standalone.jar驱动包,点击确定

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

3、填下配置

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

4、测试链接成功

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据

5、连接成功,在里面我们可以看到我们前面章节所创建的表,这样子就可以在里面操作我们的sql语句的。

【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14],hadoop,hadoop,hive,大数据文章来源地址https://www.toymoban.com/news/detail-860527.html

到了这里,关于【Hadoop】-Hive客户端:HiveServer2 & Beeline 与DataGrip & DBeaver[14]的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【大数据之Hive】五、Hiveserver2服务部署

      hiveserver2提供JDBC/ODBC接口,使得用户可以远程访问Hive数据,即作为客户端的代理与Hadoop集群进行交互。   hiveserver2部署时需要部署到一个能访问集群的节点上,保证能够直接往Hadoop上提交数据。   用户在客户端提交SQL语句时,由hiveserver请求HDFS或者提交计算任务到

    2024年02月13日
    浏览(44)
  • (十七)大数据实战——Hive的hiveserver2服务安装部署

    HiveServer2 是 Apache Hive 的一个服务器端组件,用于支持客户端与 Hive 进行交互和执行查询。HiveServer2服务的作用是提供jdbc/odbc接口,为用户提供远程访问Hive数据的功能。HiveServer2 允许多个客户端同时连接并与 Hive 交互。这些客户端可以通过 JDBC、ODBC 或 Thrift API 连接到 HiveServe

    2024年01月17日
    浏览(48)
  • Hive Cli / HiveServer2 中使用 dayofweek 函数引发的BUG!

    前言 使用的集群环境为: hive 3.1.2 spark 3.0.2 dayofweek 函数官方说明 dayofweek(date) - Returns the day of the week for date/timestamp (1 = Sunday, 2 = Monday, …, 7 = Saturday). 根据所给日期,返回该日期对应的周几数字,如: 周日 —— 1 周一 —— 2 周二 —— 3 … 周六 —— 7 BUG 重现 当前我有一张订

    2024年02月11日
    浏览(32)
  • Hive(3):Hive客户端使用

    1 Hive Client、Hive Beeline Client Hive发展至今,总共历经了两代客户端工具。 第一代客户端(deprecated不推荐使用):$HIVE_HOME/bin/hive, 是一个 shellUtil。主要功能:一是可用于以交互或批处理模式运行Hive查询;二是用于Hive相关服务的启动,比如metastore服务。 第二代客户端(recommen

    2024年02月03日
    浏览(48)
  • hive客户端连接

    hive客户端 第一代客户端直接使用hive指令连接,连接的就是metastore服务,并且只要连接成功就可以操作hive数据库 第一代客户端的启动和使用 第一代客户端,直接启动metastore服务即可 前台启动(当终端任务结束后,立刻结束服务) 前台启动,可以方便查看日志信息 后台启动

    2024年04月23日
    浏览(39)
  • 【Hadoop】HDFS读写流程和客户端命令使用

    🦄 个人主页——🎐开着拖拉机回家_Linux,Java基础学习,大数据运维-CSDN博客 🎐✨🍁 🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬请批评指正!🍁🐥 🪁🍁🪁🍁🪁🍁🪁🍁 🪁🍁🪁🍁🪁🍁🪁 🪁🍁🪁🍁🪁🍁🪁🍁🪁🍁🪁🍁 感谢点赞和关注 ,每天进步

    2024年02月11日
    浏览(47)
  • Hive 建表客户端报错 missing EOF at “/“

    在创建表时,我使用的是idea客户端,报了如下错误 org.apache.hadoop.hive.ql.parse.ParseException:line 6:48 missing EOF at ‘/’ near ‘)’ 原本sql如下: 后来把sql中的注释去掉以后,或者把注释开头替换成 – 此异常便可以解决。

    2024年02月08日
    浏览(54)
  • Hive连接异常:无法通过JDBC连接打开客户端传输(JDBC Uri: jdbc:hive2:// 大数据)

    Hive连接异常:无法通过JDBC连接打开客户端传输(JDBC Uri: jdbc:hive2:// 大数据) 在大数据领域中,Hive是一个常用的数据仓库解决方案,可以用于处理和分析大规模的结构化数据。然而,在使用Hive时,我们有时会遇到一些连接问题。其中之一就是\\\"Hive连接报错:Could not open clien

    2024年02月08日
    浏览(44)
  • 常见的bug---3、没有启动metaStore和Hiveserver2服务导致在本机上的IDEA无法连接上虚拟机上的HIve

    在IEDA连接虚拟机上的Hive报的 Exception in thread “main” org.apache.spark.sql.AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient at org.apache.spark.sql.hive.HiveExternalCatalog.withClient(HiveExternalCatalog.scala:11

    2024年02月15日
    浏览(50)
  • Hive的安装与使用(内嵌模式derby+将Hive的元数据配置到MySQL)配置hive的远程访问,实现多客户端访问安全机制

    前期准备:因为hive是构建在hadoop集群之上的,所以要先进行hadoop集群的搭建 一、内嵌模式:使用hive内置的关系型数据库(derby)来存储元数据 1.下载并上传到虚拟机上,我是在/opt目录下 2.解压并且重命名 3.配置hive环境,个人习惯把配置文件放在my_enc.sh中 4. 初始化元数据库

    2024年02月06日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包