HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建

这篇具有很好参考价值的文章主要介绍了HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

写在前面

本系列文章索引以及一些默认好的条件在 传送门

默认使用master节点并用root用户登录终端进行操作
文章难免会有点小bug,如果有显而易见的错误,比如没有创建文件夹时就已经开始在该文件夹下操作,还请读者自行创建~

step1 下载并解压HBase

官网下载地址
博主因为课程需要以及版本问题,下载的版本为2.0.5
请注意版本兼容性问题,具体适配情况如下图:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
因为Hadoop为3.1.1,所以说HBase下载2.0.5是支持的
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建

该版本下载地址
下载完成后,将该文件放置在/usr/local/
老样子,将该文件解压到该目录下并重命名

cd /usr/local
tar -zxvf hbase-2.0.5-bin.tar.gz
mv /usr/local/hbase-2.0.5 /usr/local/hbase

step2 环境变量的配置

修改~/.bashrc文件
vim ~/.bashrc
加入下面的几行:

export HBASE_HOME=/usr/local/hbase
export PATH=$HBASE_HOME/bin:$PATH
export PATH=$HBASE_HOME/lib:$PATH

source一下让使其生效
source ~/.bashrc
查看HBase版本以确实环境变量是否得体:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
出现版本号之后则说明环境变量设置的没问题
但是在第一次处理的时候,博主遇到了连个重复的jar包,还是有关日志文件的slf4j,如下图:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
在这种情况下,我们需要删除一个,博主删除的是第一个:
rm -rf /usr/local/hbase/lib/slf4j-log4j12<Tab补全>

step3 配置文件修改

1. hbase-env.sh修改

跳到/usr/local/hbase/conf下,命令:
cd /usr/local/hbase/conf
修改hbase-env.sh,命令vim hbase-env.sh
加入:

export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64
export HBASE_CLASSPATH=/usr/local/hadoop/etc/hadoop
export HBASE_MANAGES_ZK=false

根据自己的JDK版本进行添加,切勿盲目CV
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建

2. hbase-site.xml 修改

cd /usr/local/hbase/conf
vim hbase-site.xml
加入:

<property><name>hbase.cluster.distributed</name>  <value>true</value> 
</property>
<property>
    <name>hbase.rootdir</name><value>hdfs://master315:9000/hbase</value> 
</property>
<property><name>hbase.zookeeper.quorum</name>
   <value>master315,slave01-315,slave02-315</value>
   <description>The directory shared by RegionServers. </description>
 </property>
<property>
        <name>hbase.unsafe.stream.capability.enforce</name>
        <value>false</value>
</property>
<property>
      <name>hbase.zookeeper.property.dataDir</name>
      <value>/usr/local/zookeeper</value>
</property>

切勿盲目CV,一定看好自己的版本和名字并放到configuration标签之下

请注意:


要用HDFS为Hbase提供存储空间,
定义hbase.rootdir参数时HDFS文件系统的主机名端口号必须与Hadoop的配置文件core-site.xml中fs.default.name参数的配置一致

3. regionservers 修改

cd /usr/local/hbase/conf/
vim regionservers
在master节点加入:
记得删除原本的localhost
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建

name1
name2
    .
    .
    .
namen	 

4. backup-masters修改

这个是指出备份主机是谁,我们设为slave01
则编辑加入:
cd /usr/local/hbase/conf/
vim backup-masters

slave01

根据自己实际情况来看,切勿盲目CV

step4 传递到其他节点

将master节点下配置好的文件全部分发到slave1和slave2节点
命令:

scp -r /usr/local/hbase name1:/usr/local/
scp -r /usr/local/hbase name2:/usr/local/
                            .
                            .
                            .
scp -r /usr/local/hbase namen:/usr/local/

然后将配置好的环境变量的文件~/.bashrc也手动修改或者是传送到其他节点:

scp -r ~/.bashrc name1:~
scp -r ~/.bashrc name2:~
					 .
					 .
					 .
scp -r ~/.bashrc namen:~

记得source一下使其生效
即在各个节点(除了master): source ~/.bashrc

step5 启动备份(可选)

因为这块在后续用不到,所以说可以选择性跳过

cd /usr/local/hbase/bin/
./local-master-backup.sh start 2 3 5

其中2,3,5为偏移量,master其中一个默认端口为16010,那么偏移后就是16012

step6 启动RegionServers(可选)

因为这块在后续用不到,所以说可以选择性跳过

cd /usr/local/hbase/bin/
./local-regionservers.sh start 2 3 5

这里的2,3,5也是偏移量

step7 启动HBase

一定要记住这条常用的命令:
启动HBase集群: start-hbase.sh
关闭HBase集群: stop-hbase.sh
启动后在浏览器查看HBase集群的运行情况:

一定要注意,如果说操作了上面的偏移端口号的操作,要将下面地址的端口号+2
master:16010
然后就可以看到:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
上图可以看到我们设置的备份主机为slave01
可以缩刷新几下
如果你的这个界面转瞬即逝或者是说昙花一现并出现服务器错误server error500,并且日志文件(/usr/local/hbase/logs下)显示空指针异常的话,肯定是某个配置文件有误(别问,问就是因为这里卡了一晚上,这不得点个赞?

step8 进入hbase shell

在这一步中,我们需要进入hbase shell 查看具体是否安装完成
在命令行中,我们输入:hbase shell
进入之后,我们打上
version查看版本
status查看基本状态
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
发现一个active master 一个备份master,三个服务器,一个死掉的(博主稍后刷新会恢复,不必在意)
如果说你的status展示没有active master并报错,请检查每部的配置文件是否按照自己的需求和实际情况更改

step9 jps进程查看

master:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
slave01:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
slave02:
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
到此该有的进程每个节点都有了~

step10 集群测试

在web浏览器输入:
master:16010
如果出现:

HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
则说明集群配置成功~

HBase完结撒花~

到此,HBase安装结束
如有问题可以 留言 or 私信 or q_2649432030
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建
HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建文章来源地址https://www.toymoban.com/news/detail-423005.html

到了这里,关于HBase集群搭建记录 | 云计算[CentOS7] | HBase完全分布式集群搭建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Zookeeper集群搭建记录 | 云计算[CentOS7] | Zookeeper集群搭建

    Zookeeper集群搭建记录 | 云计算[CentOS7] | Zookeeper集群搭建

    本系列文章索引以及一些默认好的条件在 传送门 在配置Zookeeper之前,建议先配置Hadoop集群,具体的操作流程博主已更新完成,链接 Zookeeper的安装包版本不太相同,大致分为有编译过的和没有编译过的(如有错请留言指正 一般情况下对于我们在解压配置就能使用的情况下,我

    2024年02月01日
    浏览(41)
  • 大数据开源框架环境搭建(五)——Hbase完全分布式集群的安装部署

    大数据开源框架环境搭建(五)——Hbase完全分布式集群的安装部署

    目录 实验环境: 实验步骤: 〇、Zookeeper安装配置: 一、安装前注意事项 二、HBase安装  三、Hbase集群配置 1.配置hbase-env.sh文件,位于Hbase安装目录/conf/ 2.配置hbase-site.xml文件,位于Hbase安装目录/conf/ 3.配置regionservers 4.新建 backup-masters文件,添加备份HMaster机器名 四、将配置好

    2024年02月08日
    浏览(12)
  • Spark集群搭建记录 | 云计算[CentOS7] | Scala Maven项目访问Spark(local模式)实现单词计数

    Spark集群搭建记录 | 云计算[CentOS7] | Scala Maven项目访问Spark(local模式)实现单词计数

    本系列文章索引以及一些默认好的条件在 传送门 要想完成Spark的配置,首先需要完成HadoopSpark的配置 Hadoop配置教程:链接 若未进行明确说明,均按照root用户操作 本来在Eclipse的Marketplace便可以下载,可是现在官网都寄了 所以说只好找到之前的版本凑合来用 下载链接 这个软件

    2024年02月05日
    浏览(8)
  • 搭建Hadoop3.x完全分布式集群(CentOS 9)

    搭建Hadoop3.x完全分布式集群(CentOS 9)

    虚拟机相关: VMware workstation 16:虚拟机 vmware_177981.zip CentOS Stream 9:虚拟机 CentOS-Stream-9-latest-x86_64-dvd1.iso Hadoop相关 jdk1.8:JDK jdk-8u261-linux-x64.tar.gz Hadoop 3.3.6:Hadoop Hadoop 3.3.6.tar.gz 辅助工具 putty:tools putty.exe mtputty:tools mtputty.exe winscp:tools WinSCP-6.3.1-Portable.zip 本文相关资源可以

    2024年04月14日
    浏览(18)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆级超详细含图文)

    Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆级超详细含图文)

    说明: 本篇将详细介绍用二进制安装包部署hadoop等组件,注意事项,各组件的使用,常用的一些命令,以及在部署中遇到的问题解决思路等等,都将详细介绍。 ip hostname 192.168.1.11 node1 192.168.1.12 node2 192.168.1.13 node3 1.2.1系统版本 1.2.2内存建议最少4g、2cpu、50G以上的磁盘容量 本次

    2024年02月12日
    浏览(12)
  • spark 基于物理机centos7环境搭建分布式集群

    非生产环境,就使用一个新一点的版本,提前先踩踩坑,版本的选型真是一个头疼的问题,先看一下apache的官网的测试图: 伪分布式看这里: 配置之前:若是用伪分布式时,在本机必须生成key-gen 与ssh-copy-id到本机,且hosts中必须加入127.0.0.1  本机名并关闭防火墙这几步才可

    2024年02月03日
    浏览(11)
  • Hbase数据库完全分布式搭建以及java中操作Hbase

    Hbase数据库完全分布式搭建以及java中操作Hbase

    基础的环境准备不在赘述,包括jdk安装,防火墙关闭,网络配置,环境变量的配置,各个节点之间进行免密等操作等。使用的版本2.0.5. 参考官方文档 分布式的部署,都是在单节点服务的基础配置好配置,直接分发到其他节点即可。 jdk路径的配置,以及不适用内部自带的zk. 配

    2024年02月03日
    浏览(10)
  • 云计算集群搭建记录[Hadoop|Zookeeper|Hbase|Spark | Docker |OpenStack]更新索引 |动态更新

    云计算集群搭建记录[Hadoop|Zookeeper|Hbase|Spark | Docker |OpenStack]更新索引 |动态更新

    为了能够更好的查看所更新的文章,讲该博文设为索引 为了解决在编辑文件等操作的过程中的权限问题,博主一律 默认采用 root 账户登录 对于初次安装的用户可以采用如下命令行: 另外推荐一款终端工具:Tabby,既能够连接自己的服务器,也能够连接自己本地的虚拟机,还

    2023年04月13日
    浏览(8)
  • Hadoop3.x完全分布式环境搭建Zookeeper和Hbase

    Hadoop3.x完全分布式环境搭建Zookeeper和Hbase

    集群规划 IP地址 主机名 集群身份 192.168.138.100 hadoop00 主节点 192.168.138.101 hadoop01 从节点 192.168.138.102 hadoop02 从节点 Hadoop完全分布式环境搭建请移步传送门 先在主节点上进行安装和配置,随后分发到各个从节点上。 1.1 解压zookeeper并添加环境变量 1)解压zookeeper到/usr/local文件夹

    2024年02月04日
    浏览(11)
  • 搭建HBase分布式集群

    0. Prerequisite There are 3 VMs - hadoop3/hadoop4/hadoop5 for fully-distributed HBase cluster, the setup plan looks like: hadoop3 hadoop4 hadoop5 Hadoop hdfs NameNode:8020 DateNode:50010 JobHistoryServer:19888 DataNode:50010 SecondaryNameNode:50090 DateNode:50010 Hadoop yarn NodeManger:8040 ResourceMananger:8088 NodeManger:8040 NodeManger:8040 Zookeeper Quor

    2024年02月08日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包