大数据Hive--安装和配置

这篇具有很好参考价值的文章主要介绍了大数据Hive--安装和配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

有需要Hive-3.1.3.安装包和 MySQL安装包以及MySQL驱动jar包的,请浏览文章末尾

一、Hive的安装地址

  • Hive官网地址
    http://hive.apache.org/
  • 下载地址
    http://archive.apache.org/dist/hive/

1.1 Hive安装部署

1.1.1 安装Hive

1)把apache-hive-3.1.3-bin.tar.gz上传到Linux的/opt/software目录下

2)解压apache-hive-3.1.3-bin.tar.gz到/opt/module/目录下面

[yudan@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.3-bin.tar.gz -C /opt/module/

3)修改apache-hive-3.1.3-bin.tar.gz的名称为hive

[yudan@hadoop102 software]$ mv /opt/module/apache-hive-3.1.3-bin/ /opt/module/hive

4)修改/etc/profile.d/my_env.sh,添加环境变量

[yudan@hadoop102 software]$ sudo vim /etc/profile.d/my_env.sh

  • 添加内容

#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin

  • source一下

[yudan@hadoop102 hive]$ source /etc/profile.d/my_env.sh

5)初始化元数据库(默认是derby数据库)

[yudan@hadoop102 hive]$ bin/schematool -dbType derby -initSchema

1.1.2 启动Hive

1)启动Hive

[yudan@hadoop102 hive]$ bin/hive

derby数据库的特点是同一时间只允许一个客户端访问。如果多个Hive客户端同时访问,就会报错。由于在企业开发中,都是多人协作开发,需要多客户端同时访问Hive,怎么解决呢?我们可以将Hive的元数据改为用MySQL存储,MySQL支持多客户端同时访问。

2)首先退出hive客户端。然后在Hive的安装目录下将derby.log和metastore_db删除,顺便将HDFS上目录删除

hive> quit;
[yudan@hadoop102 hive]$ rm -rf derby.log metastore_db
[yudan@hadoop102 hive]$ hadoop fs -rm -r /user

3)删除HDFS中/user/hive/warehouse中数据

二、MySQL的安装地址

2.1 安装MySQL

1)上传MySQL安装包以及MySQL驱动jar包

上传到Linux /opt/software/mysql路径下,若无该路径可以自己创建
[yudan@hadoop102 software]$ mkdir mysql
mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
mysql-connector-java-5.1.37.jar

2)解压MySQL安装包

[yudan@hadoop102 software]$ tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar -C /opt/software/mysql

3)卸载系统自带的mariadb

[yudan@hadoop102 ~]$ sudo rpm -qa | grep mariadb | xargs sudo rpm -e --nodeps

4)安装MySQL依赖

注意: MySQL依赖必须依次安装,因为MySQL依赖之间有关联(在离线模式安装)
若在线模式安装则不存在这个问题,yum会自己找到MySQL缺少的依赖自己安装

[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm
安装mysql-client
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm
安装mysql-server
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm

5)启动MySQL

[yudan@hadoop102 mysql]$ sudo systemctl start mysqld

6)查看MySQL密码

[yudan@hadoop102 mysql]$ sudo cat /var/log/mysqld.log | grep password

2.2 配置MySQL

配置主要是root用户 + 密码,在任何主机上都能登录MySQL数据库。

1)用刚刚查到的密码进入MySQL(如果报错,给密码加单引号)

[yudan@hadoop102 mysql]$ mysql -uroot -p’password’

2)设置复杂密码(由于MySQL密码策略,此密码必须足够复杂)

mysql> set password=password(“Qs23=zs32”);

3)更改MySQL密码策略

mysql> set global validate_password_policy=0;
mysql> set global validate_password_length=4;

4)设置简单好记的密码

mysql> set password=password(“123456”);

5)进入MySQL库

mysql> use mysql

6)修改user表,把Host表内容修改为%

mysql> update user set host=“%” where user=“root”;

7)刷新

mysql> flush privileges;

2.3 卸载MySQL

若因为安装失败或者其他原因,MySQL需要卸载重装,可参考以下内容。
1)清空原有数据
①通过/etc/my.cnf查看MySQL数据的存储位置

[yudan@hadoop102 software]$ sudo cat /etc/my.cnf
[mysqld]
datadir=/var/lib/mysql

②去往/var/lib/mysql路径需要root权限

[yudan@hadoop102 mysql]$ su - root [root@hadoop102 ~]# cd /var/lib/mysql
[root@hadoop102 mysql]# rm -rf * (注意敲击命令的位置)

(2)卸载MySQL相关包
①查看安装过的MySQL相关包

[yudan@hadoop102 software]$ sudo rpm -qa | grep -i -E mysql

mysql-community-libs-5.7.16-1.el7.x86_64
mysql-community-client-5.7.16-1.el7.x86_64
mysql-community-common-5.7.16-1.el7.x86_64
mysql-community-libs-compat-5.7.16-1.el7.x86_64
mysql-community-server-5.7.16-1.el7.x86_64

②一键卸载命令

[yudan@hadoop102 software]$ rpm -qa | grep -i -E mysql|mariadb | xargs -n1 sudo rpm -e --nodeps

三、配置Hive元数据存储到MySQL

大数据Hive--安装和配置,大数据,hive

3.1 配置Hive元数据存储到MySQL

1)新建Hive元数据库

#登录MySQL
[yudan@hadoop102 software]$ mysql -uroot -p123456

#创建Hive元数据库
mysql> create database metastore;
mysql> quit;

2)将MySQL的JDBC驱动拷贝到Hive的lib目录下。

[yudan@hadoop102 software]$ cp /opt/software/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib

3)在$HIVE_HOME/conf目录下新建hive-site.xml文件

[yudan@hadoop102 software]$ vim $HIVE_HOME/conf/hive-site.xml

添加如下内容:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- jdbc连接的URL -->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

<!-- Hive默认在HDFS的工作目录 -->
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
</configuration>

4)初始化Hive元数据库(修改为采用MySQL存储元数据)

[yudan@hadoop102 hive]$ bin/schematool -dbType mysql -initSchema -verbose

3.2 验证元数据是否配置成功

1)再次启动Hive

[yudan@hadoop102 hive]$ bin/hive

3.3 查看MySQL中的元数据

1)登录MySQL

[yudan@hadoop102 hive]$ mysql -uroot -p123456

2)查看元数据库metastore

mysql> show databases;
mysql> use metastore;
mysql> show tables;

四、Hive服务部署

4.1 hiveserver2服务

Hive的hiveserver2服务的作用是提供jdbc/odbc接口,为用户提供远程访问Hive数据的功能,例如用户期望在个人电脑中访问远程服务中的Hive数据,就需要用到Hiveserver2。
大数据Hive--安装和配置,大数据,hive
1)用户说明
在远程访问Hive数据时,客户端并未直接访问Hadoop集群,而是由Hivesever2代理访问。由于Hadoop集群中的数据具备访问权限控制,所以此时需考虑一个问题:那就是访问Hadoop集群的用户身份是谁?是Hiveserver2的启动用户?还是客户端的登录用户?
答案是都有可能,具体是谁,由Hiveserver2的hive.server2.enable.doAs参数决定,该参数的含义是是否启用Hiveserver2用户模拟的功能。若启用,则Hiveserver2会模拟成客户端的登录用户去访问Hadoop集群的数据,不启用,则Hivesever2会直接使用启动用户访问Hadoop集群数据。模拟用户的功能,默认是开启的。

2)hiveserver2部署
(1)Hadoop端配置
hivesever2的模拟用户功能,依赖于Hadoop提供的proxy user(代理用户功能),只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此,需要将hiveserver2的启动用户设置为Hadoop的代理用户,配置方式如下:

修改配置文件core-site.xml,然后记得分发三台机器

[yudan@hadoop102 ~]$ cd $HADOOP_HOME/etc/hadoop
[yudan@hadoop102 hadoop]$ vim core-site.xml

增加如下配置:

注意:下面的用户配置自己Linux的用户
<!--配置所有节点的yudan用户都可作为代理用户-->
<property>
<name>hadoop.proxyuser.yudan.hosts</name>
<value>*</value>
</property>

<!--配置yudan用户能够代理的用户组为任意组-->
<property>
<name>hadoop.proxyuser.yudan.groups</name>
<value>*</value>
</property>

<!--配置yudan用户能够代理的用户为任意用户-->
<property>
<name>hadoop.proxyuser.yudan.users</name>
<value>*</value>
</property>

(2)Hive端配置
在hive-site.xml文件中添加如下配置信息

[yudan@hadoop102 conf]$ vim hive-site.xml

<!-- 指定hiveserver2连接的host -->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>hadoop102</value>
</property>

<!-- 指定hiveserver2连接的端口号 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>

3)测试
①启动hiveserver2

[yudan@hadoop102 hive]$ bin/hive --service hiveserver2
生产环境启动hivesercer2:nohup bin/hiveserver2 >/dev/null 2>&1 &(退后台去运行)

②使用命令行客户端beeline进行远程访问

启动beeline客户端
[yudan@hadoop102 hive]$ bin/beeline -u jdbc:hive2://hadoop102:10000 -n atguigu

看到如下界面
Connecting to jdbc:hive2://hadoop102:10000
Connected to: Apache Hive (version 3.1.3)
Driver: Hive JDBC (version 3.1.3)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 3.1.3 by Apache Hive
0: jdbc:hive2://hadoop102:10000>

③使用Datagrip图形化客户端进行远程访问。
DataGrip安装路径

4.2 metastore服务

Hive的metastore服务的作用是为Hive CLI或者Hiveserver2提供元数据访问接口。

1)metastore运行模式
metastore有两种运行模式,分别为嵌入式模式和独立服务模式。下面分别对两种模式进行说明:

  • 生产环境中,不推荐使用嵌入式模式。因为其存在以下两个问题:
    • 嵌入式模式下,每个Hive CLI都需要直接连接元数据库,当Hive CLI较多时,数据库压力会比较大。
    • 每个客户端都需要用户元数据库的读写权限,元数据库的安全得不到很好的保证。

2)metastore部署

①嵌入式模式
嵌入式模式下,只需保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含连接元数据库所需要的以下参数即可:

// 这个在配置Hive元数据库连接MySQL已经配置过
<!-- jdbc连接的URL -->
<property>        <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

②独立服务模式
独立服务模式需做以下配置:
首先,保证metastore服务的配置文件hive-site.xml中包含连接元数据库所需的以下参数:

// 同上这个参数也已经配置
<!-- jdbc连接的URL -->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

其次,保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含访问metastore服务所需的以下参数:

<!-- 指定metastore服务的地址 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop102:9083</value>
</property>
注意:主机名需要改为metastore服务所在节点,端口号无需修改,metastore服务的默认端口就是9083。

3)测试
metastore服务的启动命令如下:

[yudan@hadoop202 hive]$ nohup hive --service metastore 2>&1 &

五、Hive使用技巧

5.1 Hive常用交互命令

[atguigu@hadoop102 hive]$ bin/hive -help
usage: hive
 -d,--define <key=value>          Variable subsitution to apply to hive
                              commands. e.g. -d A=B or --define A=B
--database <databasename>     Specify the database to use
 -e <quoted-query-string>         SQL from command line
 -f <filename>                      SQL from files
 -H,--help                        Print help information
--hiveconf <property=value>   Use value for given property
--hivevar <key=value>         Variable subsitution to apply to hive
                              commands. e.g. --hivevar A=B
 -i <filename>                    Initialization SQL file
 -S,--silent                      Silent mode in interactive shell
 -v,--verbose                     Verbose mode (echo executed SQL to the console)

5.2 Hive常见属性配置

1)Hive客户端显示当前库和表头

①在hive-site.xml中加入如下两个配置:

[yudan@hadoop102 conf]$ vim hive-site.xml

<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>Whether to print the names of the columns in query output.</description>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>Whether to include the current database in the Hive prompt.</description>
</property>

②hive客户端在运行时可以显示当前使用的库和表头信息

[yudan@hadoop102 conf]$ hive

hive (default)> select * from student;
OK
stu.id	stu.name
1	      yudan
Time taken: 1.874 seconds, Fetched: 1 row(s)
hive (default)>

2)Hive运行日志路径配置

①Hive的log默认存放在/tmp/atguigu/hive.log目录下(当前用户名下)

[yudan@hadoop102 yudan]$ pwd /tmp/yudan
[yudan@hadoop102 yudan]$ ls
hive.log
hive.log.2022-06-27

②修改Hive的log存放日志到/opt/module/hive/logs

  • 修改$HIVE_HOME/conf/hive-log4j2.properties.template文件名称为hive-log4j2.properties

[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf

[yudan@hadoop102 conf]$ mv hive-log4j2.properties.template hive-log4j2.properties

  • 在hive-log4j2.properties文件中修改log存放位置

[yudan@hadoop102 conf]$ vim hive-log4j2.properties
修改配置如下
property.hive.log.dir=/opt/module/hive/logs

3)Hive的JVM堆内存设置
新版本的Hive启动的时候,默认申请的JVM堆内存大小为256M,JVM堆内存申请的太小,导致后期开启本地模式,执行复杂的SQL时经常会报错:java.lang.OutOfMemoryError: Java heap space,因此最好提前调整一下HADOOP_HEAPSIZE这个参数。

①修改$HIVE_HOME/conf下的hive-env.sh.template为hive-env.sh

[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf

[yudan@hadoop102 conf]$ mv hive-env.sh.template hive-env.sh

②将hive-env.sh其中的参数 export HADOOP_HEAPSIZE修改为2048,重启Hive。

修改前
#The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=1024

修改后
The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=2048

4)关闭Hadoop虚拟内存检查
在yarn-site.xml中关闭虚拟内存检查(虚拟内存校验,如果已经关闭了,就不需要配了)。

①修改前记得先停Hadoop

[yudan@hadoop102 hadoop]$ pwd /opt/module/hadoop-3.1.3/etc/hadoop

[yudan@hadoop102 hadoop]$ vim yarn-site.xml

②添加如下配置

<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

③修改完后记得分发yarn-site.xml,并重启yarn。

六、所需的安装包资源

链接:https://pan.baidu.com/s/1fwxzKn5PvulUyAxr0cYyHg
提取码:2wa0文章来源地址https://www.toymoban.com/news/detail-770147.html

到了这里,关于大数据Hive--安装和配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 构建大数据环境:Hadoop、MySQL、Hive、Scala和Spark的安装与配置

    在当今的数据驱动时代,构建一个强大的大数据环境对于企业和组织来说至关重要。本文将介绍如何安装和配置Hadoop、MySQL、Hive、Scala和Spark,以搭建一个完整的大数据环境。 安装Hadoop 首先,从Apache Hadoop的官方网站下载所需的Hadoop发行版。选择适合你系统的二进制发行版,下

    2024年02月11日
    浏览(50)
  • Hive的安装与配置——第1关:Hive的安装与配置

    第1关:Hive的安装与配置 任务描述 本关任务:在已安装 Hadoop 的基础上安装配置好 Hive 并运行。 相关知识 为了完成本关任务,你需要掌握: 1. Hive 的基本安装; 2. Mysql 的安装与设置; 3. Hive 的配置。 **注意:**本关实训 Hive 的安装与配置建立在 Hadoop 已安装配置好的情况下。

    2024年01月17日
    浏览(55)
  • hive(一)hive的安装与基本配置

    目录 一、前提: 二、安装步骤: 1、上传jar包至/usr/local/soft 2、解压并重命名 3、配置环境变量  三、配置HIVE文件 1、配置hive-env.sh 2、配置hive-site.xml  3、配置日志 4、修改默认配置文件  5、上传MySQL连接jar包 四、修改MySQL编码 1、 编辑配置文件 2、加入以下内容: 3、 重启

    2023年04月09日
    浏览(27)
  • hive的安装配置笔记

    1.上传hive安装包 2.解压 3.配置Hive(在一台机器上即可) 4.运行hive     发现内置默认的metastore存在问题(1.换执行路径后,原来的表不存在了。2.只能有一个用户访问同一个表)      5.配置mysql的metastore         查询以前安装的mysql相关包         暴力删除这个包         上

    2024年02月06日
    浏览(31)
  • Hive 组件安装配置

    一,下载和解压安装文件 (1)使用 root 用户,将 Hive 安装包 /opt/software/apache-hive-2.0.0-bin.tar.gz 路解压到/usr/local/src 路径下。 (2)将解压后的 apache-hive-2.0.0-bin 文件夹更名为 hive; (3)修改 hive 目录归属用户和用户组为 hadoop 二,设置 Hive 环境 步骤一:卸载 MariaDB 数据库 (

    2024年04月15日
    浏览(30)
  • Hive-安装与配置(1)

    🥇🥇【大数据学习记录篇】-持续更新中~🥇🥇 个人主页:beixi@ 本文章收录于专栏(点击传送):【大数据学习】 💓💓持续更新中,感谢各位前辈朋友们支持学习~💓💓 Hive在Hadoop生态系统中运行,依赖Hadoop分布式文件系统(HDFS)和YARN资源管理器。它由以下几个主要组件

    2024年02月10日
    浏览(25)
  • HIve安装配置(超详细)

    1)Hive官网地址 http://hive.apache.org/ 2)文档查看地址 https://cwiki.apache.org/confluence/display/Hive/GettingStarted 3)下载地址 http://archive.apache.org/dist/hive/ 4)github地址 https://github.com/apache/hive 1. 把 apache-hive-3.1.2-bin.tar.gz 上传到Linux的/export/software目录下 2. 解压 apache-hive-3.1.2-bin.tar.gz 到/expo

    2024年02月05日
    浏览(35)
  • 头歌—Hive的安装与配置

    在修改 conf 下面的 hive-site.xml 文件这里,题目给的信息是错误的,正确的内容如下:

    2024年04月16日
    浏览(27)
  • Hive的安装与配置详解

    准备:打开三台虚拟机,并且连接好xshell 1.上传apache-hive-2.3.3-bin.tar.gz压缩包文件到/opt/software目录下, 可以使用rz命令,选择路径上传,也可以直接把文件从本地拖拽致xshell内,也可以使用xftp来传输。 解压apache-hive-2.3.3-bin.tar.gz 到指定文件夹目录下 修改文件夹名,此步骤可忽

    2024年02月09日
    浏览(30)
  • 【大数据之Hive】四、配置Hive元数据存储到MySQL

    需求:   把Hive元数据写道MySQL的metastore数据库中(MySQL默认没有metastore数据库,需要提前创建:create database metastore;)   连接地址:jdbc:mysql//hadoop102:3306/metastore   驱动:com.mysql.cj.jdbc.Driver   用户名:root   密码:123456 (1)新建元数据库: (2)把MySQL的JDBC驱动拷

    2024年02月09日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包