实验三 HBase的安装与简单操作

这篇具有很好参考价值的文章主要介绍了实验三 HBase的安装与简单操作。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、实验目的

  1. 安装和配置hbase数据库
  2. 熟悉hbase中相关的shell命令

二、实验环境

  1. centOS 8
  2. hadoop-3.2.3
  3. JDK版本: 1.8
  4. HBase版本: 2.4.12

三、实验内容

1.HBase数据库的安装

  1. 下载HBase
    去官网下载hbase的安装包,然后将安装包上传到虚拟机上
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data

  2. 解压
    注意需要切换到root用户下,方便操作

    tar -zxvf hbase-2.4.12-bin.tar.gz -C /app  
    

    修改名字

    mv hbase-2.4.12 hbase
    
  3. 配置
    (1)修改/etc/profile
    增加

    # set hbase enviroment
    export HBASE_HOME=/app/hbase
    export PATH=$PATH:$HBASE_HOME/bin
    

    保存后退出,最后source /etc/profile
    (2)修改hbase-env.sh
    先输入echo $JAVA_HOME来复制JAVA_HOME的路径,以方便之后的配置,接着我们编辑HBase conf目录下的hbase-env.sh文件,将其中的JAVA_HOME指向到Java的安装目录,还有HBASE_MANAGES_ZK设置为true,还有一个地方也需要设置为true,即将其前面的‘#’删除即可,即HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP最后保存退出:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data

    (3)编辑hbase-site.xml文件
    在标签中添加如下内容:

    <configuration>
      <property>
           <name>hbase.rootdir</name>
           <value>hdfs://hadoop0:8088/hbase</value>
      </property>
      <property>
           <name>hbase.zookeeper.quorum</name>
           <value>hadoop0</value>
      </property>  
      <property>
      		<name>hbase.cluster.distributed</name>
            <value>true</value>
      </property>
      		<name>hbase.unsafe.stream.capability.enforce</name>
            <value>true</value>
      </property>
    </configuration>
    

    注: 此文件中hbase.rootdir中主机和端口号需要与$HADOOP_HOME/etc/hadoop/core-site.xml文件中fs.default.name的主机名和端口号相同

  4. 启动
    先启动hadoop,再启动hbase

    cd $HBASE_HOME/bin
    start-hbase.sh
    

    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    输入jps命令,可以看到多了三个进程:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    查看hdfs目录,在根目录下多了一个/hbase目录:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    也可以进入浏览器访问: http://hadoop0:16010
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    也可以进入hbase shell命令窗口查看hbase的表,先输入hbase shell进入,然后输入list命令,但是我这里报错了:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    出现此错误是因为hdfs集群处在安全模式,我们先输入exit命令退出hbase shell,然后输入hdfs dfsadmin -safemode leave:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    重新启动hbase后还是会出现这个问题,在logs目录下查看master的日志,出现了如下错误:
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    在网上查找资料之后,发现是版本兼容性问题,原文https://blog.csdn.net/qq_36286400/article/details/118763548?
    将hadoop卸载重新安装3.2.3版本的hadoop,问题解决
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data

  5. 停止

    cd $HBASE_HOME/bin
    hbase-daemon.sh stop master
    stop-hbase.sh
    

2. 创建表

启动HBase之后,我们输入hbase shell进入到Hbase shell命令行窗口:
hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
使用create创建表,例如创建一个名为test的表,使其中包含一个名为data的列,表和列族属性都为默认值:
hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
创建成功

3. 添加数据,删除数据,删除表

  1. 添加数据
    给test表添加一些数据:
    使用put添加数据,使用get获取一行的数据
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    也可以使用scan获取全部数据
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data

  2. 删除数据
    使用deleteall 表名,行名称删除整行数据
    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data

  3. 删除表
    删除表需要两步:

    disable 表名
    drop 表名
    

    hbase的安装与简单操作实验报告,Hadoop,hbase,hadoop,big data
    最后退出hbase shell命令窗口使用exit命令即可文章来源地址https://www.toymoban.com/news/detail-736382.html

到了这里,关于实验三 HBase的安装与简单操作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop安装配置HBase

    1、文件准备 http://archive.apache.org/dist/hbase/1.3.1/下载hbase-1.3.1-bin.tar.gz并上传到虚拟机/root目录下。 2、安装          切换目录 [root@hadoop00 ~]# cd /usr/local 新建文件夹 [root@hadoop00 local]# mkdir hbase 解压文件 [root@hadoop00 local]# tar zxvf /root/hbase-1.3.1-bin.tar.gz -C /usr/local/hbase 3、环境变量

    2024年01月24日
    浏览(39)
  • 轻大21级软工大数据实验(手把手教你入门Hadoop、hbase、spark)

    写在最前面,如果你只是来找答案的,那么很遗憾,本文尽量避免给出最后结果,本文适合Linux0基础学生,给出详细的环境配置过程,实验本身其实很简单,供大家一起学习交流。 1 .编程实现以下指定功能,并利用 Hadoop 提供的 Shell 命令完成相同任务 : 向HDFS 中上传任意文

    2024年02月05日
    浏览(28)
  • 虚拟机安装hadoop,hbase(单机伪集群模式)

    工作中遇到了大数据方面的一些技术栈,没有退路可言,只能去学习掌握它,就像当初做爬虫一样(虽然很简单),在数据爆发的现在,传统的数据库mysql,oracle显然在处理大数据量级的数据时显得力不从心,所以有些特定的业务需要引进能够处理大数据量的数据库,hadoop提

    2024年02月04日
    浏览(30)
  • Hadoop安装Hbase启动失败报错解决方法

    先进入hbase文件目录里看日志文件看看报什么错再具体解决: vim /opt/module/hbase-1.3.3/logs/hbase-root-master-hadoop-single.log  1.报错org.apache.hadoop.security.AccessControlException: Permission denied: user异常解决方法 1、第一种 在hdfs的配置文件中,将dfs.permissions修改为False(不推荐) 2、第二种 执行

    2024年02月07日
    浏览(35)
  • 【Hadoop】创建Hadoop集群(3个节点)—— 安装部署一个3个节点构成的hbase集群

    前言 此实验搭建3个虚拟节点,一个mater,一个slave1,一个slave2 集群简介 HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但在物理上常在一起。 HDFS集群负责海量数据的存储,集群中的角色主要有: NameNode、DataNode、SecondaryNode YARN集群负责海量数据运算

    2024年02月08日
    浏览(38)
  • Linux安装Zookeeper、Hadoop、Hive、Hbase全家桶系列

    目录 Linux安装配置Zookeeper Linux安装配置Hadoop Linux安装Hbase 新建文件夹 下载到指定文件夹 官网 Apache ZooKeeper 解压到指定文件 查看 进入目录 创建日志/数据文件夹 复制配置文件 使用vim进入zoo.cfg 修改为如下:  记录一下zookeeper的路径然后 刷新资源 运行 查看状态 创建文件夹加

    2024年02月14日
    浏览(33)
  • Hadoop(05) HBase2.5.5安装和编程实践指南

    HBase是一个基于Apache Hadoop的 分布式、可扩展、面向列的NoSQL数据库系统 。它被设计用于处理大规模数据集,并提供快速的读写访问性能。 以下是HBase的一些关键特点和概念: 列存储结构:HBase使用列存储结构,意味着数据被组织成行和列的形式。每个表可以有灵活的列族定义

    2024年02月03日
    浏览(33)
  • 基于 HBase & Phoenix 构建实时数仓(1)—— Hadoop HA 安装部署

    目录 一、主机规划 二、环境准备 1. 启动 NTP 时钟同步 2. 修改 hosts 文件 3. 配置所有主机间 ssh 免密 4. 修改用户可打开文件数与进程数(可选) 三、安装 JDK 四、安装部署 Zookeeper 集群 1. 解压、配置环境变量 2. 创建配置文件 3. 创建新的空 ZooKeeper 数据目录和事务日志目录 4

    2024年03月10日
    浏览(38)
  • 安装HBase后查看HBase版本时报错(错误: 找不到或无法加载主类 org.apache.hadoop.hbase.util.GetJavaProperty)的解决方案

    目录 一、错误 二、解决方法 三、错误分析 在安装完成HBase(安装HBase的具体教程可参考HBase2.2.2安装和编程实践指南)后显示HBase版本时报错: 显示HBase的版本信息代码如下(若已配置环境变量直接输入hbase version即可): 报错信息如下: 修改/usr/local/hbase/conf/hbase-env.sh配置文

    2024年02月04日
    浏览(42)
  • Hadoop3.3.6安装和配置hbase-2.5.5-hadoop3x,zookeeper-3.8.3

    vm设置 在安装过程中推荐设置root用户密码为1234方面后续操作 1.设置主机名 以hadoop3为例 2.设置固定ip hadoop1 192.168.88.201 hadoop2 192.168.88.202 hadoop3 192.168.88.203 最后执行 service network restart 刷新网卡 3.工具连接(三个机器都要设置) 4.主机映射 windows: C:WindowsSystem32driversetc 修改这个路

    2024年02月03日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包