安装配置HBase

这篇具有很好参考价值的文章主要介绍了安装配置HBase。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HBase集群需要整个集群所有节点安装的HBase版本保持一致,并且拥有相同的配置,具体配置步骤如下:

1. 解压缩HBase的压缩包

2. 配置HBase的环境变量

3. 修改HBase的配置文件,HBase的配置文件存放在HBase安装目录下的conf中

4. 首先在一台节点对整个HBase集群进行配置,再将此节点的配置发送到集群的其它节点上。

5. 具体需要修改的HBase的配置文件包括 hbase-site.xml、hbase-env.sh、regionservers、backup-masters、

HBase版本选择

  • 从官方网站 https://archive.apache.org/dist/hbase/  (注意,官方网站在国内可能无法访问),下载一个HBase的稳定发布版本

安装配置HBase,数据分析实践,hbase,数据库,大数据

安装HBase(在node1上安装配置HBase,然后再使用【scp】命令分发到其他节点)

  • 项目中使用的HBase安装包,已经存放在/opt/software目录下,直接解压使用即可:
[root@node1 ~]# tar -xzf /opt/software/hbase.tar.gz -C /opt/module/
  • 通过【vi】命令编辑/etc/profile文件
[root@node1 ~]# vi /etc/profile
  • 设置HBase环境变量,在/etc/profile 文件的末尾添加如下内容:
export HBASE_HOME=/opt/module/hbase
export PATH=$PATH:$HBASE_HOME/bin

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 使用【scp】将环境变量分发至其它节点
[root@node1 ~]# scp -rq /etc/profile node2:/etc/
[root@node1 ~]# scp -rq /etc/profile node3:/etc/

解释

部分参数说明: -p:保留原文件的修改时间,访问时间和访问权限。 -q: 不显示传输进度条。 -r: 递归复制整个目录。 所以,如果使用scp命令只复制单个文件,可以不添加-rq参数。

  • 使用【source】命令,使配置文件生效
[root@node1 ~]# source  /etc/profile

配置HBase

  • 配置hbase-env.sh文件
[root@node1 ~]# cd $HBASE_HOME/conf
[root@node1 ~]# vi hbase-env.sh

在文件末尾添加如下配置:

export JAVA_HOME=/opt/module/jdk1.8.0_301/
export HBASE_MANAGES_ZK=false

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 配置 hbase-site.xml文件,该文件存放在$HBASE_HOME/conf目录下
[root@node1 conf]# vi hbase-site.xml

在<configuration>和</configuration>之间配置内容如下:

<property>
	<name>hbase.rootdir</name>
	<value>hdfs://node1:9000/hbase</value>
</property>
<property>
	<name>hbase.unsafe.stream.capability.enforce</name>
	<value>false</value>
</property>
<property>
	<name>hbase.cluster.distributed</name>
	<value>true</value>
</property>
<property>
	<name>hbase.zookeeper.quorum</name>
	<value>node1:2181,node2:2181,node3:2181</value>
</property>

配置完成后完整内容如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
/**
 *
 * Licensed to the Apache Software Foundation (ASF) under one
 * or more contributor license agreements.  See the NOTICE file
 * distributed with this work for additional information
 * regarding copyright ownership.  The ASF licenses this file
 * to you under the Apache License, Version 2.0 (the
 * "License"); you may not use this file except in compliance
 * with the License.  You may obtain a copy of the License at
 *
 *     http://www.apache.org/licenses/LICENSE-2.0
 *
 * Unless required by applicable law or agreed to in writing, software
 * distributed under the License is distributed on an "AS IS" BASIS,
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
 * See the License for the specific language governing permissions and
 * limitations under the License.
 */
-->
<configuration>
	<property>
		<name>hbase.rootdir</name>
		<value>hdfs://node1:9000/hbase</value>
	</property>
	<property>
		<name>hbase.unsafe.stream.capability.enforce</name>
		<value>false</value>
	</property>
	<property>
		<name>hbase.cluster.distributed</name>
		<value>true</value>
	</property>
	<property>
		<name>hbase.zookeeper.quorum</name>
		<value>node1:2181,node2:2181,node3:2181</value>
	</property>
</configuration>

配置regionservers文件

[root@node1 conf]# vi regionservers

配置内容如下:

node1
node2
node3
  • 将Hadoop的配置文件拷贝到HBase的conf目录
[root@node1 conf]# cp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/conf/
[root@node1 conf]# cp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf/
  • 将node1的HBase分发至整个集群的其他节点:
[root@node1 ~]# cd /opt/module/
[root@node1 module]# scp -rq hbase node2:/opt/module/
[root@node1 module]# scp -rq hbase node3:/opt/module/

启动集群并测试

  • 在node1上启动HBase集群并,并在client节点上通过浏览器访问 http://node1:16010 查看HBase的Web监控页面
[root@node1 ~]# start-hbase.sh

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 新建一个名为test的表,使其只包含一个名为data的列,表和列族属性都为默认值
[root@node1 ~]# hbase shell
hbase(main):001:0> create 'test','data'
0 row(s) in 0.4150 seconds

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 通过键入help查看帮助命令,运行list查看新建的表是否存在

解释

hbase(main):003:0> list TABLE test 1 row(s) in 0.0230 seconds

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 在列族data中二个不同的行和列上插入数据,然后列出表内容
hbase(main):004:0> put 'test','row1','data:1','values1'
0 row(s) in 0.1280 seconds
hbase(main):005:0> put 'test','row2','data:2','values2'
0 row(s) in 0.0090 seconds
hbase(main):006:0> scan 'test'
ROW COLUMN+CELL
row1 column=data:1, timestamp=1473585137461, value=values1
row2 column=data:2, timestamp=1473585158072, value=values2
2 row(s) in 0.0200 seconds
  • 删除刚创建的表test,需要先设为禁用,然后删除,不设置会报错:
hbase(main):008:0> drop 'test'
ERROR: Table test is enabled. Disable it first.
hbase(main):009:0> disable 'test'
0 row(s) in 1.1800 seconds
hbase(main):010:0> drop 'test'
0 row(s) in 0.1570 seconds

安装配置HBase,数据分析实践,hbase,数据库,大数据

  • 查看一下,是否删除成功

安装配置HBase,数据分析实践,hbase,数据库,大数据文章来源地址https://www.toymoban.com/news/detail-840676.html

  • 输入【quit】命令,即可退出Base Shell命令行模式
hbase(main):007:0> quit()

到了这里,关于安装配置HBase的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HBase的数据压缩与存储效率实践

    HBase是一个分布式、可扩展、高性能的列式存储系统,基于Google的Bigtable设计。它是Hadoop生态系统的一部分,可以与HDFS、MapReduce、ZooKeeper等组件集成。HBase适用于大规模数据存储和实时数据访问场景,如日志记录、实时数据分析、实时数据挖掘等。 数据压缩是提高存储效率和

    2024年02月20日
    浏览(35)
  • 大数据开源框架之HBase编程实践

    HBase的安装部署请看: (30条消息) 大数据开源框架环境搭建(五)——Hbase完全分布式集群的安装部署_木子一个Lee的博客-CSDN博客 目录 任务1:用HBase提供的HBase Shell命令实现以下指定功能: 1.列出HBase所有的表的相关信息 2.在终端打印出指定的表的所有记录数据; 3.向已经创建好

    2024年02月01日
    浏览(42)
  • Hadoop(05) HBase2.5.5安装和编程实践指南

    HBase是一个基于Apache Hadoop的 分布式、可扩展、面向列的NoSQL数据库系统 。它被设计用于处理大规模数据集,并提供快速的读写访问性能。 以下是HBase的一些关键特点和概念: 列存储结构:HBase使用列存储结构,意味着数据被组织成行和列的形式。每个表可以有灵活的列族定义

    2024年02月03日
    浏览(48)
  • 全量、增量数据在HBase迁移的多种技巧实践

    作者经历了多次基于HBase实现全量与增量数据的迁移测试,总结了在使用HBase进行数据迁移的多种实践,本文针对全量与增量数据迁移的场景不同,提供了1+2的技巧分享。 1.背景 在HBase使用过程中,使用的HBase集群经常会因为某些原因需要数据迁移。大多数情况下,可以用离线

    2024年02月06日
    浏览(47)
  • HBase的数据库设计模式与实践

    HBase是一个分布式、可扩展、高性能的列式存储系统,基于Google的Bigtable设计。它是Hadoop生态系统的一部分,可以与HDFS、MapReduce、ZooKeeper等组件集成。HBase适用于大规模数据存储和实时数据访问的场景,如日志记录、实时数据分析、实时搜索等。 在现实应用中,HBase的数据库设

    2024年02月20日
    浏览(44)
  • 大数据技术原理与应用实验指南——HBase编程实践

    一、 实验目的 (1) 熟练使用HBase操作常用的Shell命令。 (2) 熟悉HBase操作常用的Java API。 二、 实验内容 (1) 安装HBase软件。 (2) 编程实现指定功能,并利用Hadoop提供的Shell命令完成相同的任务(实现增、删、改、查基本操作,统计表的行数,打印表的记录等操作)。

    2024年02月21日
    浏览(40)
  • 记录「 Hbase的数据迁移与bulkload流程与实践」

    目录 项目场景: 数据迁移方案 hbase和hadoop相关命令 方案介绍 DistCp分布式拷贝方案实施 迁移过程中遇到的一些问题 1.我在原集群先拷贝协处理器到目标新节点过程中出现了如下的情况,hdfs的map任务一直处于卡住状态,通过页面前两行看到hadoop集群没有资源, 有3个节点处于

    2024年02月04日
    浏览(37)
  • Hbase的安装与配置

    Hbase: 是基本Hadoop 的一个数据库,全名叫Hadoop Database hadoop 的数据库,所以安装hbase之前一定要把,hadoop装好。 1,ssh 免密测试 输入命令: ssh localhost 因为之前安装Hadoop的时候已经把免密做好了,所以现在不用做了 输入命令: cd .ssh 进入ssh目录 输入命令: ssh-keygen -t rsa 之后会生成

    2024年01月21日
    浏览(35)
  • 安装和配置HBase

    一、下载 阿里云镜像下载比较快。 https://mirrors.aliyun.com/apache/hbase/2.4.12/ 二、安装 1、解压 解压安装包hbase-2.4.12-bin.tar.gz至路径 /usr/local 2、把hbase目录权限赋予给hadoop用户 3、配置环境变量 将hbase下的bin目录添加到path中,这样,启动hbase就无需到/usr/local/hbase目录下,大大的方便

    2024年02月02日
    浏览(33)
  • Hbase的安装配置

    注:本文默认已经完成hadoop的下载以及环境配置 1.上传zookeeper和hbase压缩包到指令路径并且解压 (理论上讲,hbase其实内置了zookeeper,我们也可以不另外下载,另外下载的目的在于减少组件间依赖性)   注:这里的下载、解压地址没有特殊规定。本文下载的地址为/home/hbase目录

    2024年01月16日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包