zookeeper + hadoop + hbase + phoenix

这篇具有很好参考价值的文章主要介绍了zookeeper + hadoop + hbase + phoenix。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、首先创建三台空的虚拟机,在此基础上搭建分布式集群

IP hostname
192.168.23.130 hadoop01
192.168.23.131 hadoop02
192.168.23.132 hadoop03

二、准备安装包版本

  • jdk-1.8
  • zookeeper-3.8.1
  • hadoop-3.2.4
  • hbase-2.4.15
  • phoenix-2.4.0-5.1.3

三、服务器环境准备(三个节点都要进行)

1、关闭防火墙

# 临时关闭防火墙
systemctl stop firewalld
# 永久关闭防火墙
systemctl disable firewalld

2、设置主机名

# 三个节点名称分别是hadoop01、hadoop02、hadoop03
hostnamectl set-hostname hadoop01

3、配置主机hosts

vim /etc/hosts

# 添加如下内容
192.168.23.130 hadoop01
192.168.23.131 hadoop02
192.168.23.132 hadoop03

4、设置ssh免密登录

# 所有节点都需要执行,连续按三次回车,在.ssh目录下生成id_rsa和id_rsa.pub
ssh-keygen

# 分发密钥,所有节点都需要执行三次,仅需要修改机器名称
ssh-copy-id hadoop01

四、安装JDK

# 解压tar包
tar -zxvf jdk-8u291-linux-x64.tar.gz

# 移动解压后得包到/opt/java目录下
mv jdk1.8.0_291 /opt/java

分发JDK安装包到其他节点

cd /opt

# 分发java包到其他节点
scp -r java hadoop02:$PWD

配置JDK环境变量(所有节点都需要执行)

# 在 /etc/profile 文件末尾加上JDK环境变量
vim /etc/profile

# 内容如下
export JAVA_HOME=/opt/java
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.har:$JAVA_HOME/lib/tools.jar
export JRE_HOME=$JAVA_HOME/jre

# 加载环境变量使其生效
source /etc/profile

# 测试环境变量是否生效
java -version

五、安装zookeeper

# 解压zookeeper包
tar -zxvf apache-zookeeper-3.8.1-bin.tar.gz

# 移动解压后得包到/opt/zookeeper目录下
mv apache-zookeeper-3.8.1-bin /opt/zookeeper

修改zookeeper配置

# 进入zookeeper包
cd /opt/zookeeper

# 复制zoo_sample.cfg模板配置文件
cp zoo_sample.cfg zoo.cfg

# 修改配置文件
vim zoo.cfg

# 修改内容如下
dataDir=/opt/zookeeper/data

添加zookeeper集群信息,在zoo.cfg末尾添加对应集群节点信息

server.1=hadoop01:2555:3555
server.2=hadoop02:2555:3555
server.3=hadoop03:2555:3555

添加zookeeper数据目录并创建节点ID对应集群节点信息

# 创建data目录
mkdir /opt/zookeeper/data

# 在/opt/zookeeper/data创建myid文件
cd /opt/zookeeper/data

# 修改节点ID
vim myid

# 内容如下(三个节点得内容分别是1,2,3)
1

分发zookeeper文件到其他节点。

cd /opt
scp -r zookeeper hadoop02:$PWD

注意:文件分发完后需要到每个节点将myid中得内容改成对应节点得ID,一定不能漏改和改错,否则zookeeper启动将会失败

启动zookeeper(所有节点均需执行)

# 进入zookeeper的bin目录
cd /opt/zookeeper/bin

# 启动zookeeper
./zkServer.sh start

# 查看zookeeper状态
./zkServer.sh status

使用JPS查看zookeeper进行,zookeeper的进程名称为QuorumPeerMain

六、安装hadoop

部署hadoop集群,NameNode和SecondaryNameNode不要安装在一台机器上面。ResourceManager也很消耗内存,所以不要和NameNode和SecondaryNameNode配置到同一台机器上面。

按照如下表格进行配置(后面通过JPS检查集群是就根据这个表格来进行检查)

hadoop01 hadoop02 hadoop03
HDFS NameNode
DataNode
DataNode SecondaryNameNode
DataNode
YARN NodeManager ResourceManager
NodeManager
NodeManager
# 解压hadoop包
tar -zxvf hadoop-3.2.4.tar.gz

# 移动解压后得包到/opt/hadoop目录下
mv hadoop-3.2.4 /opt/hadoop

(1)修改hadoop-env.sh配置

# 进入hadoop配置目录
cd /opt/hadoop/etc/hadoop

# 修改hadoop-env.sh
vim hadoop-env.sh

# 修改内容如下
export JAVA_HOME=/opt/java
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

# 加载配置
source hadoop-env.sh

(2)修改core-site.xml配置

vim core-site.xml

将core-site.xml中的配置文件修改成如下内容

<configuration>
	<!-- 指定namenode的地址 -->
	<property>
	  <name>fs.defaultFS</name>
	  <value>hdfs://hadoop01:8020</value>
	</property>
	<!-- 指定hadoop数据的存储目录  -->
	<property>
	   <name>hadoop.tmp.dir</name>
	   <value>/opt/hadoop/tmp</value>
	</property>
	<!-- 配置 HDFS 网页登录使用的静态用户为 root -->
	<property>
	   <name>hadoop.http.staticuser.user</name>
	   <value>root</value>
	</property>
</configuration>

(3)修改hdfs-site.xml配置

vim hdfs-site.xml

将hdfs-site.xml中的配置文件修改成如下内容

<configuration>
	<!-- nn web 端访问地址-->
	<property>
	   <name>dfs.namenode.http-address</name>
	   <value>hadoop01:9870</value>
	</property>
	<!-- 2nn web 端访问地址-->
	<property>
	   <name>dfs.namenode.secondary.http-address</name>
	   <value>hadoop03:9868</value>
	</property>
</configuration>

(4)修改mapred-site.xml配置

vim mapred-site.xml

将mapred-site.xml中的配置文件修改成如下内容

<configuration>
	<!-- mapreduce的工作模式:yarn -->
  <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
  </property>
</configuration>

(5)修改yarn-site.xml配置

vim yarn-site.xml

将yarn-site.xml中的配置文件修改成如下内容

<configuration>
	<!-- 指定 MR 走 shuffle -->
	<property>
	   <name>yarn.nodemanager.aux-services</name>
	   <value>mapreduce_shuffle</value>
	</property>
	<!-- 指定 ResourceManager 的地址-->
	<property>
	   <name>yarn.resourcemanager.hostname</name>
	   <value>hadoop02</value>
	</property>
	<!-- 环境变量的继承 -->
	<property>
	   <name>yarn.nodemanager.env-whitelist</name>
	   <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
	</property>
	<!-- 开启日志聚集功能 -->
	<property>
	   <name>yarn.log-aggregation-enable</name>
	   <value>true</value>
	</property>
	<!-- 设置日志聚集服务器地址 -->
	<property>
	   <name>yarn.log.server.url</name>
	   <value>http://hadoop01:19888/jobhistory/logs</value>
	</property>
	<!-- 设置日志保留时间为 7 天 -->
	<property>
	   <name>yarn.log-aggregation.retain-seconds</name>
	   <value>604800</value>
	</property>
</configuration>

(6)编辑workers

vim workers

# 修改成如下内容
hadoop01
hadoop02
hadoop03

分发配置后的hadoop包到其他节点

cd /opt

# 分发安装包
scp -r hadoop hadoop02:$PWD

配置hadoop环境变量(所有节点均需执行)

# 在 /etc/profile 文件末尾加上hadoop环境变量
vim /etc/profile

# 内容如下
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

# 加载环境变量使其生效
source /etc/profile

# 测试环境变量是否生效
hadoop version

启动hadoop集群

# 在hadoop01初始化hadoop集群
hdfs namenode -format

# 在hadoop01节点启动HDFS
start-dfs.sh

# 在hadoop02节点启动YARN
start-yarn.sh

验证hadoop集群是否配置成功

  1. web页面访问
    查看HDFS的namenode:http://192.168.23.130:9870
    查看 YARN 的 ResourceManager:http://192.168.23.131:8088

  2. JPS查看
    使用JPS查看各个节点的进程状态是否跟前面规划的表格中的进程名称一致

七、安装HBase

# 解压hbase包
tar -zxvf hbase-2.4.15-bin.tar.gz

# 移动解压后得包到/opt/hbase目录下
mv hbase-2.4.15-bin /opt/hbase

(1)修改hbase-env.sh配置

cd /opt/hbase/conf

# 修改hbase-env.sh
vim hbase-env.sh

# 修改内容如下
export JAVA_HOME=/opt/java
export HBASE_MANAGES_ZK=false

(2)修改hbase-site.xml配置

vim hbase-site.xml

将hbase-site.xml中的配置文件修改成如下内容

<configuration>
	<!--  V2.1版本,在分布式情况下, 设置为false -->
	<property>
	  <name>hbase.unsafe.stream.capability.enforce</name>
	  <value>false</value>
	</property>
	<!-- 这个目录是 RegionServer 的共享目录,用来持久化 HBase。特别注意的是 hbase.rootdir 里面的 HDFS 地址是要跟 Hadoop 的 core-site.xml 里面的 fs.defaultFS 的 HDFS 的 IP 地址或者域名、端口必须一致 -->
	<property>
	  <name>hbase.rootdir</name>
	  <value>hdfs://hadoop01:8020/hbase</value>
	</property>
	<!-- Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面 -->
	<property>
	  <name>hbase.cluster.distributed</name>
	  <value>true</value>
	</property>
	<!-- 指定master端口,默认也是16000 -->
	<property>
	  <name>hbase.master.port</name>
	  <value>16000</value>
	</property>
	<!-- 本地文件系统的临时文件夹。可以修改到一个更为持久的目录上。(/tmp会在重启时清除) -->
	<property>
	  <name>hbase.tmp.dir</name>
	  <value>/opt/hbase/tmp</value>
	</property>
	<!-- 列出全部的 ZooKeeper 的主机,用逗号隔开 -->
	<property>
	  <name>hbase.zookeeper.quorum</name>
	  <value>hadoop01,hadoop02,hadoop03</value>
	</property>
	<!-- ZooKeeper 快照的存储位置,默认值为 /tmp -->
	<property>
	  <name>hbase.zookeeper.property.dataDir</name>
	  <value>/opt/zookeeper/zkData</value>
	</property>
</configuration>

(3)配置regionservers

vim regionservers

# 内容如下
hadoop01
hadoop02
hadoop03

复制jar包到lib

cp /opt/hbase/lib/client-facing-thirdparty/htrace-core4-4.2.0-incubating.jar /opt/hbase/lib/

分发配置后的hbase包到其他节点

cd /opt

# 分发安装包
scp -r hbase hadoop02:$PWD

配置HBase环境变量(所有节点均需执行)

# 在 /etc/profile 文件末尾加上hbase环境变量
vim /etc/profile

# 内容如下
export HBASE_HOME=/opt/hbase
export PATH=$PATH:${HBASE_HOME}/bin:${HBASE_HOME}/sbin

# 加载环境变量使其生效
source /etc/profile

# 测试环境变量是否生效
hbase version

启动HBase

start-hbase.sh

验证HBase集群是否配置成功

  1. web页面访问
    http://192.168.23.131:16010

  2. JPS查看
    使用JPS查看hadoop01是否存在HMaster、HRegionServer进程名称
    查看其他节点是否存在HRegionServer进程名称

八、安装phoenix

# 解压phoenix包
tar -zxvf phoenix-hbase-2.4.0-5.1.3-bin.tar.gz

# 移动解压后得包到/opt/phoenix目录下
mv phoenix-hbase-2.4.0-5.1.3-bin /opt/phoenix

拷贝jar包到 /opt/hbase/lib目录

cp /opt/phoenix/phoenix-server-hbase-2.4.0-5.1.3.jar /opt/hbase/lib/

将jar分发到其他节点

scp /opt/phoenix/phoenix-server-hbase-2.4.0-5.1.3.jar hadoop02:/opt/hbase/lib/

修改hbase-site.xml配置(在原配置文件中的configuration中添加配置,不要覆盖之前的配置)

cd /opt/hbase/conf

vim hbase-site.xml

添加的内容如下

<!-- 支持HBase命名空间映射 -->
<property>
  <name>phoenix.schema.isNamespaceMappingEnabled</name>
  <value>true</value>
</property>
<property>
  <name>phoenix.schema.mapSystemTablesToNamespace</name>
  <value>true</value>
</property>
<!-- 支持索引预写日志编码 -->
<property>
  <name>hbase.regionserver.wal.codec</name>
  <value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>
</property>

拷贝hbase-site.xml到phoenix中

cp /opt/hbase/conf/hbase-site.xml /opt/phoenix/bin/

将hbase-site.xml分发到其他节点

cd /opt/hbase/conf

scp hbase-site.xml haoop02:$PWD

重启HBase

# 关闭hbase
stop-hbase.sh

# 启动hbase
start-hbase.sh

验证phoenix是否安装成功

cd /opt/phoenix/bin

# 启动phoenix客户端(首次启动加载时间会比较长,加载过程中不要强制退出)
./sqlline.py hadoop01:2181

成功进入phoenix客户端后可以查看phoenix中的所有表文章来源地址https://www.toymoban.com/news/detail-464625.html

# 查看所有表
!table

到了这里,关于zookeeper + hadoop + hbase + phoenix的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Linux CentOS下大数据环境搭建(zookeeper+hadoop+hbase+spark+scala)

    本篇文章是结合我个人学习经历所写,如果遇到什么问题或者我有什么错误,欢迎讨论。 百度网盘链接:https://pan.baidu.com/s/1DCkQQVYqYHYtPws9hWGpgw?pwd=zh1y 提取码:zh1y 软件在连接中VMwareWorkstation_V16.2.1_XiTongZhiJia的文件夹下。 双击运行安装包,这里下一步即可。 这里勾选我接受许可

    2024年04月15日
    浏览(68)
  • Hadoop3.3.6安装和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3

    vm设置 在安装过程中推荐设置root用户密码为1234方面后续操作 1.设置主机名 以hadoop3为例 2.设置固定ip hadoop1 192.168.88.201 hadoop2 192.168.88.202 hadoop3 192.168.88.203 最后执行 service network restart 刷新网卡 3.工具连接(三个机器都要设置) 4.主机映射 windows: C:WindowsSystem32driversetc 修改这个路

    2024年02月03日
    浏览(43)
  • 云计算集群搭建记录[Hadoop|Zookeeper|Hbase|Spark | Docker |OpenStack]更新索引 |动态更新

    为了能够更好的查看所更新的文章,讲该博文设为索引 为了解决在编辑文件等操作的过程中的权限问题,博主一律 默认采用 root 账户登录 对于初次安装的用户可以采用如下命令行: 另外推荐一款终端工具:Tabby,既能够连接自己的服务器,也能够连接自己本地的虚拟机,还

    2023年04月13日
    浏览(55)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(89)
  • 大数据期资料2023 Beta版 - Hadoop、HDFS、MapReduce、Hive、ZooKeeper、Kafka、HBase详解

    了解大数据概念、Hadoop、HDFS、MapReduce、Hive、ZooKeeper、Kafka、HBase等技术,包括特点、命令操作和启动关闭方法。获取2023年大数据资料Beta版。

    2024年02月06日
    浏览(237)
  • 基于 HBase & Phoenix 构建实时数仓(3)—— Phoenix 安装

    目录 一、主机规划 二、Phoenix 安装 1. 解压、配置环境 2. 复制两个文件 3. 重启 HBase 集群 4. 安装验证 (1)连接 HBase (2)视图映射 (3)表映射 参考:         继续上一篇,本篇介绍在同一环境中安装 Phoenix,并连接上篇部署的 HBase 集群。         所需安装包:Phoenix-5.1.

    2024年04月10日
    浏览(39)
  • 大数据集群搭建全部过程(Vmware虚拟机、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    1.网关配置(参照文档) 注意事项:第一台虚拟机改了,改为centos 101 ,地址为192.168.181.130 网关依然是192.168.181.2,但是一定要注意,它在D盘的文件名称是Hadoop 101,后面重新搭建的会命名文件夹为hadoop 101,hadoop 102和hadoop 103,然后发到一个总的文件夹hadoop_03里面去 VMnet8的IP地址一定

    2024年02月02日
    浏览(100)
  • hbase-phoenix

    phoenix 客户端,

    2024年02月11日
    浏览(48)
  • phoenix连接hbase

    一、安装phoennix添加配置    1、将phoenix-server-hbase-2.4-5.1.2.jar拷贝至hbase的的lib下   2、配置phoenix可以访问hbase的系统表     (1)将以下配置添加至hbase-site.xml中          (2)将hbase-stie.xml拷贝到phoenix/bin目录下    二、启动phoenix服务      1、启动hbase             2、启

    2024年02月15日
    浏览(38)
  • 实操Hadoop大数据高可用集群搭建(hadoop3.1.3+zookeeper3.5.7+hbase3.1.3+kafka2.12)

    前言 纯实操,无理论,本文是给公司搭建测试环境时记录的,已经按照这一套搭了四五遍大数据集群了,目前使用还未发现问题。 有问题麻烦指出,万分感谢! PS:Centos7.9、Rocky9.1可用 集群配置 ip hostname 系统 CPU 内存 系统盘 数据盘 备注 192.168.22.221 hadoop1 Centos7.9 4 16 250G 19

    2024年02月03日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包