黑马大数据学习笔记4-Hive部署和基本操作

这篇具有很好参考价值的文章主要介绍了黑马大数据学习笔记4-Hive部署和基本操作。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

p48、51、52
https://www.bilibili.com/video/BV1WY4y197g7/?p=48

思考

Hive是分布式运行的框架还是单机运行的?

Hive是单机工具,只需要部署在一台服务器即可。
Hive虽然是单机的,但是它可以提交分布式运行的MapReduce程序运行。

规划

我们知道Hive是单机工具后,就需要准备一台服务器供Hive使用即可。
同时Hive需要使用元数据服务,即需要提供一个关系型数据库,我们也选择一台服务器安装关系型数据库即可。

所以:

服务 机器
Hive本体 部署在node1
元数据服务所需的关系型数据库(课程选择最为流行的MySQL) 部署在node1

为了简单起见,都安装到node1服务器上。

安装MySQL数据库

我们在node1节点使用yum在线安装MySQL5.7版本。

在root用户下执行

更新密钥

rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

安装Mysql yum库

rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm

yum安装Mysql

yum -y install mysql-community-server

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
启动Mysql设置开机启动

systemctl start mysqld
systemctl enable mysqld

检查Mysql服务状态

systemctl status mysqld

第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码

grep 'temporary password' /var/log/mysqld.log

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

修改root用户密码

进入mysql

mysql -uroot -p

然后输入密码,回车。

如果你想设置简单密码,需要降低Mysql的密码安全级别
密码安全级别低

set global validate_password_policy=LOW;

密码长度最低4位即可

set global validate_password_length=4;

然后就可以用简单密码了(课程中使用简单密码,为了方便,生产中不要这样)

修改root本机登录密码为123456

ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';

/usr/bin/mysqladmin -u root password ‘root’
修改远程登录密码,打开root用户从任意地方的主机远程登录的权限

grant all privileges on *.* to root@"%" identified by '123456' with grant option;  

刷新权限

flush privileges;

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
ctrl+D退出mysql。
重新进入mysql验证密码是否修改完成。

mysql -uroot -p

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

配置Hadoop

Hive的运行依赖于Hadoop(HDFS、MapReduce、YARN都依赖)
同时涉及到HDFS文件系统的访问,所以需要配置Hadoop的代理用户
即设置hadoop用户允许代理(模拟)其它用户

切换到hadoop用户

su - hadoop
cd /export/server/hadoop/etc/hadoop/
vim core-site.xml

添加如下内容在Hadoop的core-site.xml的<configuration></configuration>之间,并分发到其它节点,且重启HDFS集群。

<property>
	<name>hadoop.proxyuser.hadoop.hosts</name>
	<value>*</value>
</property>

<property>
	<name>hadoop.proxyuser.hadoop.groups</name>
	<value>*</value>
</property>

下载解压Hive

下载Hive安装包:
http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
将下载好的文件拖拽上传
黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

解压到node1服务器的:/export/server/内

tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/

建立软链接

ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

提供MySQL Driver包

下载MySQL驱动包:
https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-5.1.34.jar

将下载好的驱动jar包,放入:Hive安装文件夹的lib目录内

mv mysql-connector-java-5.1.34.jar /export/server/apache-hive-3.1.3-bin/lib/

配置Hive

在Hive的conf目录内,新建hive-env.sh文件,填入以下环境变量内容:

cd /export/server/hive/conf
mv hive-env.sh.template hive-env.sh
vim hive-env.sh
export HADOOP_HOME=/export/server/hadoop
export HIVE_CONF_DIR=/export/server/hive/conf
export HIVE_AUX_JARS_PATH=/export/server/hive/lib

在Hive的conf目录内,新建hive-site.xml文件,填入以下内容:

vim hive-site.xml
<configuration>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.jdbc.Driver</value>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>root</value>
	</property>

	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>123456</value>
	</property>

	<property>
		<name>hive.server2.thrift.bind.host</name>
		<value>node1</value>
	</property>

	<property>
		<name>hive.metastore.uris</name>
		<value>thrift://node1:9083</value>
	</property>

	<property>
		<name>hive.metastore.event.db.notification.api.auth</name>
		<value>false</value>
	</property>
</configuration>

初始化元数据库

支持,Hive的配置已经完成,现在在启动Hive前,需要先初始化Hive所需的元数据库。
在MySQL中新建数据库:hive

mysql -uroot -p
show databases;
CREATE DATABASE hive CHARSET UTF8;
show databases;

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
退出mysql

exit

执行元数据库初始化命令:

cd /export/server/hive/bin
./schematool -initSchema -dbType mysql -verbos

初始化成功后,会在MySQL的hive库中新建74张元数据管理的表。

mysql -uroot -p
show databases;
use hive
show tables;

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
退出mysql

exit

启动Hive(使用Hadoop用户)

修改文件权限

chown -R hadoop:hadoop apache-hive-3.1.3-bin hive

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

  • 确保Hive文件夹所属为hadoop用户
  • 创建一个hive的日志文件夹:
su - hadoop
mkdir /export/server/hive/logs
cd /export/server/hive
  • 启动元数据管理服务(必须启动,否则无法工作)

前台启动:

bin/hive --service metastore 

后台启动:

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &

查看日志

tail -f  metastore.log

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

  • 启动客户端,二选一(当前先选择Hive Shell方式)
    确保metastore、hdfs和yarn都已经启动
    Hive Shell方式(可以直接写SQL):
bin/hive

Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用):

bin/hive --service hiveserver2

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

Hive体验

首先,确保启动了Metastore服务、hdfs和yarn集群。

start-dfs.sh
start-yarn.sh
mapred --daemon start historyserver
nohup /export/server/hive/bin/hive --service metastore >> /export/server/hive/logs/metastore.log 2>&1 &

可以执行:

cd /export/server/hive
bin/hive

进入到Hive Shell环境中,可以直接执行SQL语句。
创建表

CREATE TABLE test(id INT, name STRING, gender STRING);
show tables;

插入数据

insert into test values(1,'mm','nan');
INSERT INTO test VALUES(2,'王力红','男'),(3,'李华','女');

会执行得有点慢。。。

查询数据

SELECT gender, COUNT(*) AS cnt FROM test GROUP BY gender;

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

验证SQL语句启动的MapReduce程序
打开YARN的WEB UI页面查看任务情况:http://node1:8088
黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

ctrl+c退出hive。

验证Hive的数据存储
Hive的数据存储在HDFS的:/user/hive/warehouse中
黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

HiveServer2

在启动Hive的时候,除了必备的Metastore服务外,有2种方式使用Hive:

  • 方式1:
bin/hive

即Hive的Shell客户端,可以直接写SQL

  • 方式2:
bin/hive --service hiveserver2

后台执行脚本:

nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

bin/hive --service metastore,启动的是元数据管理服务
bin/hive --service hiveserver2,启动的是HiveServer2服务

HiveServer2是Hive内置的一个ThriftServer服务,提供Thrift端口供其它客户端链接
可以连接ThriftServer的客户端有:

  • Hive内置的 beeline客户端工具(命令行工具)
  • 第三方的图形化SQL工具,如DataGrip、DBeaver、Navicat等

HiveServer2服务

Hive的客户端体系如下
黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

启动

在hive安装的服务器上,首先启动metastore服务,然后启动hiveserver2服务。

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
ps -ef|grep 32094
ps -ef|grep 32429

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记
hiveserver2监听了10000端口,金对外提供的thrift端口,默认10000

netstat -anp|grep 10000

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记

Beeline

在node1上使用beeline客户端进行连接访问。需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务。
Beeline是JDBC的客户端,通过JDBC协议和Hiveserver2服务进行通信,协议的地址是:jdbc:hive2://node1:10000

/export/server/hive/bin/beeline
! connect jdbc:hive2://node1:10000

输入用户名和密码

show databases;

黑马大数据学习笔记4-Hive部署和基本操作,大数据,大数据,学习,笔记文章来源地址https://www.toymoban.com/news/detail-630528.html

到了这里,关于黑马大数据学习笔记4-Hive部署和基本操作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据课程F3——HIve的基本操作

    文章作者邮箱:yugongshiye@sina.cn              地址:广东惠州 ⚪ 掌握HIve的基本SQL语句和注意问题; ⚪ 掌握HIve的表结构; ⚪ 掌握HIve的数据类型; ⚪ 掌握HIve的基础函数和窗口函数; 1. 通过hive -e的方式来执行指定的SQL,例如hive -e \\\'create database demo;\\\'。 2. 通过hive -f的方式

    2024年02月14日
    浏览(39)
  • 大数据开发之Hive(基本概念、安装、数据类型、DDL数据定义、DML数据操作)

    1.1.1 Hive产生背景 HDFS来存储海量的数据、MapReduce来对海量数据进行分布式并行计算、Yarn来实现资源管理和作业调度。但是面对海量的数据和负责的业务逻辑,开发人员要编写MR对数据进行统计分析难度极大,所以就产生了Hive这个数仓工具。Hive可以帮助开发人员将SQL语句转化

    2024年01月17日
    浏览(46)
  • HIVE 表 DLL 基本操作(一)——第1关:Create/Alter/Drop 数据库

    第1关:Create/Alter/Drop 数据库 任务描述 本关任务:根据编程要求对数据库进行相关操作。 相关知识 为了完成本关任务,你需要掌握: 1.如何创建数据库; 2.如何修改数据库; 3.如何删除数据库。 Create 创建数据库 数据库本质上是一个目录或命名空间,用于解决表命名冲突。

    2024年02月03日
    浏览(54)
  • Linux学习笔记——基本操作命令

      Linux 操作系统的 Shell 作为操作系统的外壳,为用户提供使用操作系统的接口。它是命令语言、命令解释程序及程序设计语言系统。   Shell 是用户和 Linux 内核之间的接口程序,如果把 Linux 内核想象成一个球体的中心,Shell 就是围绕内核的外层。当从 Shell 或其他程序向

    2024年03月12日
    浏览(70)
  • 王道操作系统学习笔记(1)——操作系统基本概念

    本文介绍了操作系统的基本概念,文章中的内容来自B站王道考研操作系统课程,想要完整学习的可以到B站官方看完整版。 操作系统:系统资源的管理者(处理机管理、存储器管理、文件管理、设备管理) 交互式命令(在终端中输命令)和批处理命令(Shell脚本) 并发: 宏

    2024年02月10日
    浏览(52)
  • Unity | HDRP高清渲染管线学习笔记:基本操作

    目录 一、场景整体环境光强度 1.HDRI Sky 2.Shadows 二、屏幕后处理效果(Post Processing) 1.Exposure 2.Post-processing/Tonemapping 三、抗锯齿 四、添加光源 1.Light Explorer窗口 2.光照探针组 3.反射探针 4.烘焙光照贴图 本文主要是了解HDRP基本操作: 如何为一个已经摆放好模型的场景添加环境光等

    2024年02月16日
    浏览(65)
  • stata学习笔记(一)stata入门与基本操作

    这里开个新坑,主题有关stata使用以及定量分析入门,主要内容来自于之前与之后的课程学习、作业以及资料查询整理,主要目的是对个人学习过程的一个记录,方便日后回顾。 方法1:点击文件选项,选择导入,根据数据类型选择即可; 方法2::点击进入数据编辑器界面,点

    2024年02月21日
    浏览(41)
  • Matlab基本操作和矩阵输入(郭彦甫视频学习笔记)

    who/whos         查看工作区当前变量 clear         清空工作区的所有变量(慎用) clear  valuable         清除变量valuable clc             清空命令行窗口 clear all         清除工作区所有变量 close all         关闭所有显示的图片 一行代码太长需要换行写可以在后面加 ... 

    2024年02月06日
    浏览(33)
  • 从零开始学习Netty - 学习笔记 - NIO基础 - ByteBuffer: 简介和基本操作

    1.1. Channel Buffer Channel 在Java NIO(New I/O)中,“Channel”(通道)是一个重要的概念,用于 在非阻塞I/O操作中进行数据的传输 。Java NIO提供了一种更为灵活和高效的I/O处理方式,相比于传统的I/O,它具有更好的性能和可扩展性。 常见的Java NIO中的通道类型: FileChannel(文件通道

    2024年02月20日
    浏览(48)
  • 黑马程序员Docker快速入门到项目部署(学习笔记)

    目录 一、Docker简介 二、安装Docker 2.1、卸载旧版 2.2、配置Docker的yum库 2.3、安装Docker 2.4、启动和校验 2.5、配置镜像加速 2.5.1、注册阿里云账号 2.5.2、开通镜像服务 2.5.3、配置镜像加速 三、快速入门 3.1、部署MYSQL 3.2、命令解读 四、Docker基础 4.1、常见命令 4.1.1、命令介绍 4.1

    2024年01月25日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包