有需要Hive-3.1.3.安装包和 MySQL安装包以及MySQL驱动jar包的,请浏览文章末尾
一、Hive的安装地址
- Hive官网地址
http://hive.apache.org/ - 下载地址
http://archive.apache.org/dist/hive/
1.1 Hive安装部署
1.1.1 安装Hive
1)把apache-hive-3.1.3-bin.tar.gz上传到Linux的/opt/software目录下
2)解压apache-hive-3.1.3-bin.tar.gz到/opt/module/目录下面
[yudan@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.3-bin.tar.gz -C /opt/module/
3)修改apache-hive-3.1.3-bin.tar.gz的名称为hive
[yudan@hadoop102 software]$ mv /opt/module/apache-hive-3.1.3-bin/ /opt/module/hive
4)修改/etc/profile.d/my_env.sh,添加环境变量
[yudan@hadoop102 software]$ sudo vim /etc/profile.d/my_env.sh
- 添加内容
#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin
- source一下
[yudan@hadoop102 hive]$ source /etc/profile.d/my_env.sh
5)初始化元数据库(默认是derby数据库)
[yudan@hadoop102 hive]$ bin/schematool -dbType derby -initSchema
1.1.2 启动Hive
1)启动Hive
[yudan@hadoop102 hive]$ bin/hive
derby数据库的特点是同一时间只允许一个客户端访问。如果多个Hive客户端同时访问,就会报错。由于在企业开发中,都是多人协作开发,需要多客户端同时访问Hive,怎么解决呢?我们可以将Hive的元数据改为用MySQL存储,MySQL支持多客户端同时访问。
2)首先退出hive客户端。然后在Hive的安装目录下将derby.log和metastore_db删除,顺便将HDFS上目录删除
hive> quit;
[yudan@hadoop102 hive]$ rm -rf derby.log metastore_db
[yudan@hadoop102 hive]$ hadoop fs -rm -r /user
3)删除HDFS中/user/hive/warehouse中数据
二、MySQL的安装地址
2.1 安装MySQL
1)上传MySQL安装包以及MySQL驱动jar包
上传到Linux /opt/software/mysql路径下,若无该路径可以自己创建
[yudan@hadoop102 software]$ mkdir mysql
mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
mysql-connector-java-5.1.37.jar
2)解压MySQL安装包
[yudan@hadoop102 software]$ tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar -C /opt/software/mysql
3)卸载系统自带的mariadb
[yudan@hadoop102 ~]$ sudo rpm -qa | grep mariadb | xargs sudo rpm -e --nodeps
4)安装MySQL依赖
注意: MySQL依赖必须依次安装,因为MySQL依赖之间有关联(在离线模式安装)
若在线模式安装则不存在这个问题,yum会自己找到MySQL缺少的依赖自己安装[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm
安装mysql-client
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm
安装mysql-server
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm
5)启动MySQL
[yudan@hadoop102 mysql]$ sudo systemctl start mysqld
6)查看MySQL密码
[yudan@hadoop102 mysql]$ sudo cat /var/log/mysqld.log | grep password
2.2 配置MySQL
配置主要是root用户 + 密码,在任何主机上都能登录MySQL数据库。
1)用刚刚查到的密码进入MySQL(如果报错,给密码加单引号)
[yudan@hadoop102 mysql]$ mysql -uroot -p’password’
2)设置复杂密码(由于MySQL密码策略,此密码必须足够复杂)
mysql> set password=password(“Qs23=zs32”);
3)更改MySQL密码策略
mysql> set global validate_password_policy=0;
mysql> set global validate_password_length=4;
4)设置简单好记的密码
mysql> set password=password(“123456”);
5)进入MySQL库
mysql> use mysql
6)修改user表,把Host表内容修改为%
mysql> update user set host=“%” where user=“root”;
7)刷新
mysql> flush privileges;
2.3 卸载MySQL
若因为安装失败或者其他原因,MySQL需要卸载重装,可参考以下内容。
1)清空原有数据
①通过/etc/my.cnf查看MySQL数据的存储位置
[yudan@hadoop102 software]$ sudo cat /etc/my.cnf
[mysqld]
datadir=/var/lib/mysql
②去往/var/lib/mysql路径需要root权限
[yudan@hadoop102 mysql]$ su - root [root@hadoop102 ~]# cd /var/lib/mysql
[root@hadoop102 mysql]# rm -rf * (注意敲击命令的位置)
(2)卸载MySQL相关包
①查看安装过的MySQL相关包
[yudan@hadoop102 software]$ sudo rpm -qa | grep -i -E mysql
mysql-community-libs-5.7.16-1.el7.x86_64
mysql-community-client-5.7.16-1.el7.x86_64
mysql-community-common-5.7.16-1.el7.x86_64
mysql-community-libs-compat-5.7.16-1.el7.x86_64
mysql-community-server-5.7.16-1.el7.x86_64
②一键卸载命令
[yudan@hadoop102 software]$ rpm -qa | grep -i -E mysql|mariadb | xargs -n1 sudo rpm -e --nodeps
三、配置Hive元数据存储到MySQL
3.1 配置Hive元数据存储到MySQL
1)新建Hive元数据库
#登录MySQL
[yudan@hadoop102 software]$ mysql -uroot -p123456#创建Hive元数据库
mysql> create database metastore;
mysql> quit;
2)将MySQL的JDBC驱动拷贝到Hive的lib目录下。
[yudan@hadoop102 software]$ cp /opt/software/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib
3)在$HIVE_HOME/conf目录下新建hive-site.xml文件
[yudan@hadoop102 software]$ vim $HIVE_HOME/conf/hive-site.xml
添加如下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- jdbc连接的URL -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>
<!-- jdbc连接的Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- jdbc连接的username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- jdbc连接的password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<!-- Hive默认在HDFS的工作目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
</configuration>
4)初始化Hive元数据库(修改为采用MySQL存储元数据)
[yudan@hadoop102 hive]$ bin/schematool -dbType mysql -initSchema -verbose
3.2 验证元数据是否配置成功
1)再次启动Hive
[yudan@hadoop102 hive]$ bin/hive
3.3 查看MySQL中的元数据
1)登录MySQL
[yudan@hadoop102 hive]$ mysql -uroot -p123456
2)查看元数据库metastore
mysql> show databases;
mysql> use metastore;
mysql> show tables;
四、Hive服务部署
4.1 hiveserver2服务
Hive的hiveserver2服务的作用是提供jdbc/odbc接口,为用户提供远程访问Hive数据的功能,例如用户期望在个人电脑中访问远程服务中的Hive数据,就需要用到Hiveserver2。
1)用户说明
在远程访问Hive数据时,客户端并未直接访问Hadoop集群,而是由Hivesever2代理访问。由于Hadoop集群中的数据具备访问权限控制,所以此时需考虑一个问题:那就是访问Hadoop集群的用户身份是谁?是Hiveserver2的启动用户?还是客户端的登录用户?
答案是都有可能,具体是谁,由Hiveserver2的hive.server2.enable.doAs参数决定,该参数的含义是是否启用Hiveserver2用户模拟的功能。若启用,则Hiveserver2会模拟成客户端的登录用户去访问Hadoop集群的数据,不启用,则Hivesever2会直接使用启动用户访问Hadoop集群数据。模拟用户的功能,默认是开启的。
2)hiveserver2部署
(1)Hadoop端配置
hivesever2的模拟用户功能,依赖于Hadoop提供的proxy user(代理用户功能),只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此,需要将hiveserver2的启动用户设置为Hadoop的代理用户,配置方式如下:
修改配置文件core-site.xml,然后记得分发三台机器
[yudan@hadoop102 ~]$ cd $HADOOP_HOME/etc/hadoop
[yudan@hadoop102 hadoop]$ vim core-site.xml
增加如下配置:
注意:下面的用户配置自己Linux的用户
<!--配置所有节点的yudan用户都可作为代理用户-->
<property>
<name>hadoop.proxyuser.yudan.hosts</name>
<value>*</value>
</property>
<!--配置yudan用户能够代理的用户组为任意组-->
<property>
<name>hadoop.proxyuser.yudan.groups</name>
<value>*</value>
</property>
<!--配置yudan用户能够代理的用户为任意用户-->
<property>
<name>hadoop.proxyuser.yudan.users</name>
<value>*</value>
</property>
(2)Hive端配置
在hive-site.xml文件中添加如下配置信息
[yudan@hadoop102 conf]$ vim hive-site.xml
<!-- 指定hiveserver2连接的host -->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>hadoop102</value>
</property>
<!-- 指定hiveserver2连接的端口号 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
3)测试
①启动hiveserver2
[yudan@hadoop102 hive]$ bin/hive --service hiveserver2
生产环境启动hivesercer2:nohup bin/hiveserver2 >/dev/null 2>&1 &(退后台去运行)
②使用命令行客户端beeline进行远程访问
启动beeline客户端
[yudan@hadoop102 hive]$ bin/beeline -u jdbc:hive2://hadoop102:10000 -n atguigu
看到如下界面
Connecting to jdbc:hive2://hadoop102:10000
Connected to: Apache Hive (version 3.1.3)
Driver: Hive JDBC (version 3.1.3)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 3.1.3 by Apache Hive
0: jdbc:hive2://hadoop102:10000>
③使用Datagrip图形化客户端进行远程访问。
DataGrip安装路径
4.2 metastore服务
Hive的metastore服务的作用是为Hive CLI或者Hiveserver2提供元数据访问接口。
1)metastore运行模式
metastore有两种运行模式,分别为嵌入式模式和独立服务模式。下面分别对两种模式进行说明:
- 生产环境中,不推荐使用嵌入式模式。因为其存在以下两个问题:
- 嵌入式模式下,每个Hive CLI都需要直接连接元数据库,当Hive CLI较多时,数据库压力会比较大。
- 每个客户端都需要用户元数据库的读写权限,元数据库的安全得不到很好的保证。
2)metastore部署
①嵌入式模式
嵌入式模式下,只需保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含连接元数据库所需要的以下参数即可:
// 这个在配置Hive元数据库连接MySQL已经配置过
<!-- jdbc连接的URL -->
<property> <name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>
<!-- jdbc连接的Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- jdbc连接的username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- jdbc连接的password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
②独立服务模式
独立服务模式需做以下配置:
首先,保证metastore服务的配置文件hive-site.xml中包含连接元数据库所需的以下参数:
// 同上这个参数也已经配置
<!-- jdbc连接的URL -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>
<!-- jdbc连接的Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- jdbc连接的username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- jdbc连接的password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
其次,保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含访问metastore服务所需的以下参数:
<!-- 指定metastore服务的地址 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop102:9083</value>
</property>
注意:主机名需要改为metastore服务所在节点,端口号无需修改,metastore服务的默认端口就是9083。
3)测试
metastore服务的启动命令如下:
[yudan@hadoop202 hive]$ nohup hive --service metastore 2>&1 &
五、Hive使用技巧
5.1 Hive常用交互命令
[atguigu@hadoop102 hive]$ bin/hive -help
usage: hive
-d,--define <key=value> Variable subsitution to apply to hive
commands. e.g. -d A=B or --define A=B
--database <databasename> Specify the database to use
-e <quoted-query-string> SQL from command line
-f <filename> SQL from files
-H,--help Print help information
--hiveconf <property=value> Use value for given property
--hivevar <key=value> Variable subsitution to apply to hive
commands. e.g. --hivevar A=B
-i <filename> Initialization SQL file
-S,--silent Silent mode in interactive shell
-v,--verbose Verbose mode (echo executed SQL to the console)
5.2 Hive常见属性配置
1)Hive客户端显示当前库和表头
①在hive-site.xml中加入如下两个配置:
[yudan@hadoop102 conf]$ vim hive-site.xml
<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>Whether to print the names of the columns in query output.</description>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>Whether to include the current database in the Hive prompt.</description>
</property>
②hive客户端在运行时可以显示当前使用的库和表头信息
[yudan@hadoop102 conf]$ hive
hive (default)> select * from student;
OK
stu.id stu.name
1 yudan
Time taken: 1.874 seconds, Fetched: 1 row(s)
hive (default)>
2)Hive运行日志路径配置
①Hive的log默认存放在/tmp/atguigu/hive.log目录下(当前用户名下)
[yudan@hadoop102 yudan]$ pwd /tmp/yudan
[yudan@hadoop102 yudan]$ ls
hive.log
hive.log.2022-06-27
②修改Hive的log存放日志到/opt/module/hive/logs
- 修改$HIVE_HOME/conf/hive-log4j2.properties.template文件名称为hive-log4j2.properties
[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf
[yudan@hadoop102 conf]$ mv hive-log4j2.properties.template hive-log4j2.properties
- 在hive-log4j2.properties文件中修改log存放位置
[yudan@hadoop102 conf]$ vim hive-log4j2.properties
修改配置如下
property.hive.log.dir=/opt/module/hive/logs
3)Hive的JVM堆内存设置
新版本的Hive启动的时候,默认申请的JVM堆内存大小为256M,JVM堆内存申请的太小,导致后期开启本地模式,执行复杂的SQL时经常会报错:java.lang.OutOfMemoryError: Java heap space,因此最好提前调整一下HADOOP_HEAPSIZE这个参数。
①修改$HIVE_HOME/conf下的hive-env.sh.template为hive-env.sh
[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf
[yudan@hadoop102 conf]$ mv hive-env.sh.template hive-env.sh
②将hive-env.sh其中的参数 export HADOOP_HEAPSIZE修改为2048,重启Hive。
修改前
#The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=1024
修改后
The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=2048
4)关闭Hadoop虚拟内存检查
在yarn-site.xml中关闭虚拟内存检查(虚拟内存校验,如果已经关闭了,就不需要配了)。
①修改前记得先停Hadoop
[yudan@hadoop102 hadoop]$ pwd /opt/module/hadoop-3.1.3/etc/hadoop
[yudan@hadoop102 hadoop]$ vim yarn-site.xml
②添加如下配置
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
③修改完后记得分发yarn-site.xml,并重启yarn。文章来源:https://www.toymoban.com/news/detail-770147.html
六、所需的安装包资源
链接:https://pan.baidu.com/s/1fwxzKn5PvulUyAxr0cYyHg
提取码:2wa0文章来源地址https://www.toymoban.com/news/detail-770147.html
到了这里,关于大数据Hive--安装和配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!