hive-3.1.3 部署 ubuntu20

这篇具有很好参考价值的文章主要介绍了hive-3.1.3 部署 ubuntu20。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

准备

安装hadoop

安装hive

derby

# 上传
scp -P 22 -r D:\00garbage\big_data\hive\apache-hive-3.1.3-bin.tar.gz mybigdata@192.168.66.20:/home/mybigdata/
tar -zxvf apache-hive-3.1.3-bin.tar.gz
mv apache-hive-3.1.3 hive
# 环境变量
vim ~/.bashrc
# 初始化元数据库 (metastore)。derby 只支持单连接。报错解决 https://blog.csdn.net/qq_41918166/article/details/128748687
bin/schematool -dbType derby -initSchema
# 启动
bin/hive
# 测试
hive> show databases;
hive> show tables;
hive> create table student(id int, name string);
hive> insert into student values(1,"xcrj");
hive> select * from student;
# web访问hdfs
http://h01:9870/explorer.html#/
输入 /user/hive/warehouse/student

~/.bashrc 添加

#HIVE_HOME
export HIVE_HOME=/home/mybigdata/hive
export PATH=$PATH:$HIVE_HOME/bin

mysql

先清空 derby

quit;
rm -rf derby.log metastore_db
hadoop fs -rm -r /user

docker安装mysql

sudo docker pull mysql:5.7.40
sudo docker run -itd --name mysql57 -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 mysql:5.7.40
docker exec -it mysql57 /bin/bash
mysql -uroot -p
create database metastore;

配置

# 配置
vim $HIVE_HOME/conf/hive-site.xml
# 初始化元数据库 (metastore)
bin/schematool -dbType mysql -initSchema -verbose
# 启动
bin/hive
# 测试1
hive> show databases;
hive> show tables;
hive> create table student(id int, name string);
hive> insert into student values(1,"xcrj");
hive> select * from student;
# 测试2,查看MySQL metastore库 元数据
use metastore;
show tables;
select * from DBS;
select * from TBLS;
select * from COLUMNS_V2;
# web访问hdfs
http://h01:9870/explorer.html#/
输入 /user/hive/warehouse/student

hive-site.xml文章来源地址https://www.toymoban.com/news/detail-632310.html

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- JDBC连接的URL -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://h01:3306/metastore?useSSL=false</value>
    </property>
    <!-- JDBC连接的Driver-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
	<!-- JDBC连接的username-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <!-- JDBC连接的password -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
    <!-- Hive默认在HDFS的工作目录 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
</configuration>

hive.log位置

cd /tmp/mybigdata/
tail -f hive.log

到了这里,关于hive-3.1.3 部署 ubuntu20的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

    Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务运行。Hive具有稳定和简单易用的特性,成为了当前企业在构建企业级数据仓库时使用较为普遍的大数据组件之一。 本实验内容主要

    2024年02月03日
    浏览(36)
  • 【Hadoop】-Hive部署[12]

    目录 思考 VMware虚拟机部署 规划 步骤1:安装MySQL数据库 步骤2:配置Hadoop 步骤3:下载解压Hive 步骤4:提供MySQL Driver包 步骤5:配置Hive 步骤6:初始化元数据库 步骤7:启动Hive(使用hadoop用户) 部署Hive的主要流程: Hive是分布式运行的框架还是单机运行的? Hive是单机工具,只

    2024年04月27日
    浏览(28)
  • hadoop搭建、mysql、hive部署

    一、 HDFS安装搭建 1.1 关闭虚拟机防火墙 在之后的学习、操作中,经常会遇到在宿主机中通过程序去访问虚拟机中的相关软件,但是默认情况下,虚拟机的防火墙是不允许访问,这是需要开启一个一个的端口号,比较麻烦,所以在教学过程中,为了提高教学、学习的效率,直

    2024年02月08日
    浏览(43)
  • hadoop 3.1.3集群搭建 ubuntu20

    hyper-v安装ubuntu-20-server hyper-v建立快照 hyper-v快速创建虚拟机-导入导出虚拟机 采用hyper-v方式安装ubuntu-20虚拟机和koolshare hostname ip h01 192.168.66.20 h02 192.168.66.21 h03 192.168.66.22 所有机器都需要按需设置 00-installer-config.yaml addresses中192.168.66.10是机器的IP地址 gateway4是koolshare的地址 每台

    2024年02月14日
    浏览(33)
  • ubuntu-server部署hive-part3-安装mysql,最新大数据开发架构师成长路线

    不再报类似上方的错误,以mysql用户执行mysql命令,报错如下,说明可以继续安装。 初始化 以mysql用户执行如下命令: mysqld --user=mysql --basedir=/usr/local/mysql/ --datadir=/usr/local/mysql/data --initialize 说明: –user:以操作系统mysql用户的身份初始化数据库,产生文件mysql是拥有者 –ba

    2024年04月15日
    浏览(56)
  • 利用Docker快速部署hadoop、hive和spark

    2024年02月13日
    浏览(49)
  • ubuntu20.04配置hadoop&&spark(直接配置,无需借助虚拟机)

    hadoop作为一个开源的分布式计算和存储框架,在人工智能、大数据领域有非常广泛的应用。笔者在查阅资料发现网络博客介绍的配置方法大多需要借助虚拟机,或者需要重新创建ubuntu账户并设置密码为空以避免hadoop连接不上的问题,甚至是在ubuntu系统内再搭建一个虚拟机的

    2024年04月17日
    浏览(54)
  • Ubuntu 20.0.4 Hadoop3.3.2 安装与配置全流程保姆教程

    准备工作 我下载的压缩包是基于 Windows 系统 x86 指令集的,如果你是苹果电脑可能需要选择 ARM 版本 3.21 更新:hadoop 某些功能不支持 JDK11 及以上版本(如网页管理无法查看文件系统),所以下载时选择 JDK8,官网需要登陆甲骨文账号下载 全新的 ubuntu 虚拟机 https://ubuntu.com/downl

    2024年02月07日
    浏览(38)
  • Ubuntu20.04下Git的安装并连接到Gitee仓库

    参考:Ubuntu 20.04下git的安装与基本使用 一、安装Git 首先使用版本命令查看Ubuntu是否已经安装过git  安装Git 二、配置Git 1. 配置用户名和邮箱 配置用户名: 配置邮箱: 2.生成git的密钥 1)建立密钥文件 2)密钥文件位于主目录下(要显示隐藏文件)  3)用命令行打开id_rsa.pub文

    2024年02月02日
    浏览(51)
  • [Hadoop高可用集群]数仓工具之Hive的安装部署(超级详细,适用于初学者)

    📕作者:喜欢水星记 🏆系列:Hadoop高可用集群 🔋收藏:本文记录我搭建过程供大家学习和自己之后复习,如果对您有用,希望能点赞收藏加关注 Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转

    2024年02月05日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包