一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

这篇具有很好参考价值的文章主要介绍了一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Hive简介

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务运行。Hive具有稳定和简单易用的特性,成为了当前企业在构建企业级数据仓库时使用较为普遍的大数据组件之一。
本实验内容主要在Hadoop高可用集群上进行Hive的相关操作,关于Hadoop高可用集群的部署参考以下链接:
Hadoop系统应用之搭建Hadoop高可用集群(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

Hive的部署模式主要有三种:

  1. 嵌入模式,使用内嵌的Derby数据库存储元数据,是Hive最简单的部署方式。嵌入模式下的Hive不支持多会话连接,不适合生产环境,只适合测试环境。
  2. 本地模式,使用本地独立数据库存储元数据,这里的独立数据库通常使用MySQL数据库。本地模式部署的Hive支持元数据共享,并且支持多会话连接。
  3. 远程模式,远程模式与本地模式一样,同样是使用独立数据库存储元数据。不同的是,远程模式使用的是远端的独立数据库,而本地模式使用的是本地独立数据库。远程模式主要应用于Hive客户端较多的情况。

下面主要介绍远程模式的部署过程:

1、Hive安装

第一步:打开SecureCRT 8.3软件,在node-01上进入/export/software/目录,指令如下:

cd /export/software/

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第二步:使用指令rz进行安装包上传,选择安装包apache-hive-1.2.1-bin.tar.gz。
apache-hive-1.2.1-bin.tar.gz
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第三步:上传完毕后将该安装包解压到/export/servers/目录,使用如下指令:

tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /export/servers/

解压完成后使用cd /export/servers/进入该目录,之后使用指令ls可查看到该目录下存在apache-hive-1.2.1-bin.tar.gz文件。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

2、MySQL安装

第一步:使用如下指令在根目录在线下载安装MySQL:

yum install mysql mysql-server mysql-devel

第二步:安装过程出现提示整个下载空间为17M,是否确定继续,输入y即可。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第三步:MySQL相关配置。
首先启动MySQL服务,输入如下指令:

/etc/init.d/mysqld start

然后输入指令mysql,登录MySQL服务。完成后结果如下:
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

之后分别输入如下指令设置MySQL用户名“root”和密码“123456”。

USE mysql;
update user set password=password('123456') where user='root';

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

最后依次使用如下指令设置允许远程登陆,并强制写入,然后使用exit;退出即可。

GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123456' WITH GRANT OPTION;
FLUSH PRIVILEGES;

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第四步:Hive的配置。
首先进入Hive安装包下的conf文件夹,将hive-env.sh.template文件进行复制并重命名为hive-env.sh。具体指令如下:

cd /export/servers/apache-hive-1.2.1-bin/conf
cp hive-env.sh.template hive-env.sh

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

然后修改hive-env.sh文件,添加Hadoop环境变量。
修改指令:

vi hive-env.sh

在文件内容中找到#HADOOP_HOME=${bin}/../../hadoop这句话,将这句话修改成如下内容即可。

HADOOP_HOME=/export/servers/hadoop-2.7.4

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

之后在conf目录下新建hive-site.xml文件,并添加配置信息。
新建文件并编辑如下:

vi hive-site.xml

该文件中新增配置信息如下:

<configuration>
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>Mysql连接协议</description>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
<description>JDBC连接驱动</description>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
<description>用户名</description>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>123456</value>
<description>密码</description>
    </property>
</configuration>

hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

:wq保存退出即可。
最后将连接驱动的jar包mysql-connector-java-5.1.32.jar上传至Hive安装包的lib文件夹下。
jar包下载地址
进入lib文件夹指令:

cd ..
cd lib/

上传指令rz选择该jar包即可。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第五步:将node-01服务器上安装的Hive程序分别复制到node-02和node-03服务器上。
首先回到/export/servers/目录下。

cd /export/servers/

再分别使用如下指令进行复制。

scp -r /export/servers/apache-hive-1.2.1-bin/ node-02:/export/servers/
scp -r /export/servers/apache-hive-1.2.1-bin/ node-03:/export/servers/

3、Hive远程服务启动

注:使用Hive进行数据库操作时需要将所有Hadoop集群服务启动,包括HDFS和YARN,同时还要启动MySQL服务,启动MySQL服务方式前面已介绍。
第一步:在node-01中进入安装包解压后目录,使用如下指令进入:

cd /export/servers/apache-hive-1.2.1-bin

在该目录下使用如下指令启动Hiveserver2服务:

bin/hiveserver2

服务启动后在当前窗口会没有任何反应。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第二步:这时可以使用SecureCRT软件的克隆会话功能(右键会话窗口,单击Clone Session选项),打开新的node-01窗口。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

在新打开的node-01窗口使用jps查看进程,可发现hive服务(RunJar)已启动。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

第三步:在node-02上进行Hive安装包解压目录,指令如下:

cd /export/servers/apache-hive-1.2.1-bin

在该路径下输入远程连接指令:

bin/beeline

按要求输入远程连接协议,连接到指定Hive服务(node-01)的主机口和端名(默认10000)

!connect jdbc:hive2://node-01:10000

紧接着按照提示输入node-01的账户名“root”和密码“123456”,自此远程连接成功。
hive数据仓库应用,Hive数据仓库应用,hive,数据仓库,centos,hadoop,大数据

注:关闭beeline方法:输入“! quit
关闭hiveserver2方法:使用“kill -9 XXX”,后面XXX为进程RunJar对应的序号。

参考文献:黑马程序员.Hive数据仓库应用[M].北京:清华大学出版社,2021.

后续学习链接:
二、Hive数据仓库应用之Hive数据定义语言(一)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)文章来源地址https://www.toymoban.com/news/detail-768875.html

到了这里,关于一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云服务器下如何部署Django项目详细操作步骤

    前期本人完成了“编写你的第一个 Django 应用程序”,有了一个简单的项目代码,在本地window系统自测没问题了,接下来就想办法部署到服务器上,可以通过公网访问我们的Django项目。将开发机器上运行的开发版软件实际安装到服务器上进行长期运行,这是使用 Django 框架进行

    2024年02月09日
    浏览(51)
  • docker容器中快速部署ES集群的详细操作步骤(6个节点)

    ElasticSearch集群 1.集群原理 ElasticSearch是天生支持集群的,他不需要依赖其他的服务发现和注册的组件,如zookeeper这些,因为他内置了一个名字叫ZenDiscovery的模块,是ElasticSearch自己实现的一套用于节点发现和选主等功能的组件,所以ElasticSearch做起集群来非常简单,不需要太多

    2024年02月09日
    浏览(51)
  • 大数据应用——Hive操作示例

     启动Hive完成如下任务: (1)新建member表 (2)将本地文件“/home/hadoop/member.txt”导入 member表中   (3)查询member表中所有记录 (4)查询member表中男同学(性别值为1)数据   (5)查询member表中22岁男同学数据   (6)统计member表中男同学和女同学(性别值为0)的人数   (7)删除

    2024年02月06日
    浏览(32)
  • 数据仓库建设指导说明

    数据仓库 :是一种数据管理系统,旨在为整个组织的商务智能和分析提供支持。数据仓库通常包含大量数据,包括历史数据。数据仓库中的数据一般来自应用日志文件和事务应用等广泛来源。数据仓库存储结构化数据,其用途通常已明确定义。 数据湖 :让组织存储大量结构

    2024年02月12日
    浏览(39)
  • 黑马大数据学习笔记4-Hive部署和基本操作

    p48、51、52 https://www.bilibili.com/video/BV1WY4y197g7/?p=48 Hive是分布式运行的框架还是单机运行的? Hive是单机工具,只需要部署在一台服务器即可。 Hive虽然是单机的,但是它可以提交分布式运行的MapReduce程序运行。 我们知道Hive是单机工具后,就需要准备一台服务器供Hive使用即可。

    2024年02月14日
    浏览(45)
  • Allegro如何铺网格铜详细操作指导

    Allegro如何铺网格铜的三种方法操作指导 在做PCB设计的时候,时常需要铺网格铜,尤其是对于绕性有要求的时候,Allegro可以快捷铺出网格铜,类似下图 具体操作如下 直接铺网格铜 选择Shape add Rect命令 Option Type选择Static Crosshatch 画出需要的图形 鼠标右击done,网格铜就画好了

    2024年02月06日
    浏览(38)
  • Hive创建内部表详细步骤

    1.创建内部表SQL语句 先将emp.txt文件上传到linux本地根目录下( /emp.txt )和 HDFS文件系统的根目录下( /emp.txt )。 ② 将Linux本地数据导入至emp_in表(复制操作) ③ 将HDFS数据导入至emp_in表(剪切操作) 注意:emp.txt文件的内容信息如下:

    2024年02月14日
    浏览(36)
  • Hive创建外部表详细步骤

    ① 在hive中执行HDFS命令:创建/data目录 ② 在hive中执行HDFS命令:上传/emp.txt至HDFS的data目录下,并命名为emp_out ③ 创建外部表:emp_out ④ 验证: 查询结果如下:   注意: emp.txt文件内容为:

    2024年02月14日
    浏览(38)
  • 配置Hive远程服务详细步骤

    HiveServer2支持多客户端的并发和认证,为开放API客户端如JDBC、ODBC提供了更好的支持。 (1)修改hive-site.xml,在文件中添加以下内容: (2)修改/home/software/hadoop/etc/hadoop/core-site.xml,增加如下内容: (3)将core-site.xml配置文件使用scp命令发送给各子节点 (4)一定要在启动Had

    2024年02月14日
    浏览(47)
  • 本地搭建docker仓库的详细步骤

    以下是在本地搭建docker仓库的详细步骤: 安装Docker 在官网下载Docker安装包进行安装,具体操作方式可以参考官方文档。 创建存储目录 在本地创建一个用于存储Docker镜像的目录,比如 /data/docker-registry。 拉取Registry镜像 执行以下命令拉取Registry镜像: 启动Registry容器 执行以下

    2024年02月11日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包