Hadoop中HBase命令行操作

这篇具有很好参考价值的文章主要介绍了Hadoop中HBase命令行操作。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HBase提供了Shell命令行,功能类似于Oracle、MySQL等关系库的SQL Plus窗口那样,用户可以通过命令行模式进行创建表、新增和更新数据,以及删除表的操作。

采用的底层存储为HDFS。使用Hbase客户端操作,执行查看Hbase版本、状态、查看帮助命令。创建表、修改表、插入数据、删除数据、查询数据,清空表、退出Hbase命令行、停止HDFS服务。

1.启动HDFS服务进程和hbase服务进程,进入MoBaXterm

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

切换用户

[root@hadoop00 ~]# su - hadoop

启动hdfs

[hadoop@hadoop00 ~]$ start-dfs.sh

启动HBase

[hadoop@hadoop00 ~]$ start-hbase.sh

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

查看进程

[hadoop@hadoop00 ~]$ jps

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

2.进入hbase 命令行客户端

[hadoop@hadoop00 ~]$ hbase shell

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

3.利用help查看Hbase有哪些命令,部分截图如下

hbase(main):001:0> help

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

 

4.查看某一组命令下的所有命令的简介和简单示范,如查看ddl。部分截图如下

hbase(main):003:0> help 'ddl'

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

5.查看某个命令的详细使用,如create。部分截图如下

hbase(main):004:0> help create

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

6.使用general组中的命令。查看集群的状态

hbase(main):005:0> status

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

7.使用general组中的命令。查看集群的版本

hbase(main):005:0> version

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

8.使用general组中的命令。查看当前登录用户的角色信息

hbase(main):005:0> whoami

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

9.使用general组中的命令。查看对表进行操作的基本命令。部分截图如下

hbase(main):004:0> table_help

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

10.使用ddl组中的命令。创建表。格式为:# create ‘表名’, ‘列族1’, ‘列族2’…

创建person表,列族为name和info

hbase(main):005:0> create 'person','name','info'

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

 11.上列也可以写成如下格式:create ‘person’,{NAME=>‘name’ },{NAME=>‘info’}

12.打开桌面的谷歌浏览器,输入http://hadoop00:50070出现界面后,选中菜单最后一项,选择“Browse the file system”

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

13.出现如下界面,选择

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

理解其文件结构参考:

https://blog.csdn.net/h1025372645/article/details/97814312

https://www.cnblogs.com/zhangwuji/p/9160301.html

14.出现如下界面,此路径下即为存储表person的路径(/hbase/data/default/)

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

15.选择person,出现如下界面,红框处即为存储数据的region

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

16.选择进入红框圈选的位置,出现如下图,可以看到,info和name即是我们创建表所指定列族存储的位置

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

17.使用ddl组中的命令。创建表时指定列族版本,指定列族是否常驻内存。创建person1表,列族为name版本为4和info常驻内存

hbase(main):004:0> create 'person1',{NAME=>'name', VERSIONS=>4 },{NAME=>'info',IN_MEMORY=>'true'}

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

18.使用ddl组中的命令。查看数据库有哪些表

hbase(main):001:0> list

Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

19.使用ddl组中的命令。查看表person1的属性信息,命令格式使用describe’person1’ 或desc ‘person1’。# 其中的属性的意义:NAME:列族名;VERSIONS:最大版 本号;MIN_VERSIONS:最小版本号;TTL(Time To Live):存活时间;IN_MEMORY:是否开启缓存,默认false;BLOCKCACHE:读缓存是否开启,默认开启。

hbase(main):001:0> desc 'person1'Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

20.使用ddl组中的命令。修改表,增加列族。语法格式:alter ‘table_name’,‘add_family’ 或者alter ‘table_name’, {NAME => ‘add_family’} 当然,新增加的列可以设置属性,比如alter ‘table_name’, {NAME => ‘add_family’, VERSIONS => 3}设置表person1增加列族postion,版本为4

alter 'person1', {NAME => 'position', VERSIONS => 4}
alter 'person', {NAME => 'name', VERSIONS => 3}

21.使用ddl组中的命令,查看表person1的属性信息。部分截图如下

desc 'person1'

22.使用ddl组中的命令。修改表,删除列族。语法格式:alter ‘table_name’, {NAME=> ‘delete_family’, METHOD => ‘delete’} 或者 alter ‘table_name’, ‘delete’ => ‘delete_family’ 设置表person1删除列族postion。

alter 'person1', 'delete' => 'position'

23.使用ddl组中的命令。禁用表语法为disable ‘table_name’

disable 'person1'

24.使用ddl组中的命令。禁用表语法为is_disabled ‘table_name’

is_disabled 'person1'

25.使用ddl组中的命令。启用表语法为enable ‘table_name’

enable 'person1'

26.使用ddl组中的命令。查看表是否启用表语法为is enabled ‘table_name’

is_enabled 'person1'Hadoop中HBase命令行操作,Hadoop,hadoop,hbase,大数据,centos

27.使用ddl组中的命令。删除表语法为drop ‘table_name’;在删除表前,需要先禁用表。

disable 'person1'
drop 'person1'

28.使用dml组中的命令。插入数据语法为put ‘表名’,‘rowkey’,‘列族名:列名’,‘值’。

如插入表person,行键为0001,列族name的列名为firstname,值为Jed

put 'person','0001','name:firstname', 'Jed'

29.使用dml组中的命令。插入数据语法为put ‘表名’,‘rowkey’,‘列族名:列名’,‘值’。

如插入表person,行键为0001,列族info的列名为hobby,值为Swim

put 'person','0001','info:hobby', 'Swim'
put 'person','0001','name:firstname', 'Tom'
put 'person','0001','name:firstname', 'Jim'

30.使用dml组中的命令,根据行键查询某行。语法为get ‘表名’,‘rowkey’。

如查询person,行键为0001。由于name:firstname列存储了三个版本,默认显示最新的值

get 'person','0001'

31.使用dml组中的命令,根据行键,指定列名查询某行。语法为get '表名',‘rowkey’,‘列族:列名’。如查询person,行键为0001,列为name:firstname。由于name:firstname列存储了三个版本,默认显示最新的值

[Command 025]:

get 'person', '0001','name:firstname'

32.使用dml组中的命令,查询person表中,rowkey为’0001’的这一行,只显示

name:firstname这一列,显示最新的3个版本

[Command 026]:

get 'person', '0001', {COLUMNS => 'name:firstname', VERSIONS => 3}

33.使用dml组中的命令,扫描person表

[Command 027]:

scan 'person'

34.使用dml组中的命令,扫描person表时指定列族

[Command 028]:

scan 'person', {COLUMNS => 'name'}

35.使用dml组中的命令,扫描person表时指定列族,并限定显示最新的2个版本

[Command 029]:

scan 'person', {COLUMNS => 'name',VERSIONS => 2}

36.使用dml组中的命令,删除数据,语法格式为:delete ‘table_name’, ‘rowkey’,‘family:column’。如删除person表中行键为0001,列名为info:hobby对应的值。

[Command 030]:

delete 'person', '0001', 'info:hobby'

37.使用dml组中的命令,扫描person表。可以看到info:hobby数据已经被删除。

[Command 031]:

scan 'person'

38.使用dml组中的命令,查询person表中列族为name,行键范围是[0001, 0003)的数据

[Command 032]:

scan 'person', {COLUMNS => 'name', STARTROW => '0001', ENDROW => '0003'}

39.使用dml组中的命令,查询查询person表中row key以00字符开头的数据

[Command 033]:

scan 'person',{FILTER=>"PrefixFilter('00')"}

40.使用dml组中的命令,清空表数据语法为:truncate ‘table_name’

[Command 034]:

truncate 'person'

41.退出Hbase命令行

[Command 035]:文章来源地址https://www.toymoban.com/news/detail-820404.html

exit

到了这里,关于Hadoop中HBase命令行操作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(74)
  • 大数据:Hadoop基础常识hive,hbase,MapReduce,Spark

    Hadoop是根据Google三大论文为基础研发的,Google 三大论文分别是: MapReduce、 GFS和BigTable。 Hadoop的核心是两个部分: 一、分布式存储(HDFS,Hadoop Distributed File System)。 二、分布式计算(MapReduce)。 MapReduce MapReduce是“ 任务的分解与结果的汇总”。 Map把数据切分——分布式存放

    2024年04月25日
    浏览(40)
  • 《Hadoop核心技术》Hbase集群部署,创建表,删除表,插入数据,查询数据

    额前言:         我是一名正在学习《Hadoop核心技术》的学生,今天跟大家分享一下在虚拟机上在Hadoop集群中用Hbase进行简单的增删查 可以进行随机访问的存取和检索数据的存储平台         HBase 是一个开源的、分布式的、版本化的 NoSQL 数据库(也即非关系型数据库

    2024年02月03日
    浏览(32)
  • 大数据篇 | Hadoop、HDFS、HIVE、HBase、Spark之间的联系与区别

    Hadoop是一个开源的分布式计算框架,用于存储和处理大规模数据集。它提供了一个可扩展的分布式文件系统(HDFS)和一个分布式计算框架(MapReduce),可以在大量廉价硬件上进行并行计算。 HDFS(Hadoop Distributed File System)是Hadoop的分布式文件系统。它被设计用于在集群中存储

    2024年02月16日
    浏览(40)
  • 大数据系统常用组件理解(Hadoop/hive/kafka/Flink/Spark/Hbase/ES)

    一.Hadoop Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理。 Hadoop的核心是yarn、HDFS和Mapreduce。yarn是资源管理系统,实现资源调度,yarn是Hadoop2.0中的资源管理系统,总体上是master/slave结构。对于yarn可以粗浅将其理解

    2024年02月20日
    浏览(37)
  • 轻大21级软工大数据实验(手把手教你入门Hadoop、hbase、spark)

    写在最前面,如果你只是来找答案的,那么很遗憾,本文尽量避免给出最后结果,本文适合Linux0基础学生,给出详细的环境配置过程,实验本身其实很简单,供大家一起学习交流。 1 .编程实现以下指定功能,并利用 Hadoop 提供的 Shell 命令完成相同任务 : 向HDFS 中上传任意文

    2024年02月05日
    浏览(28)
  • 大数据平台安装实验: ZooKeeper、Kafka、Hadoop、Hbase、Hive、Scala、Spark、Storm

    ​ 在大数据时代,存在很多开源的分布式数据采集、计算、存储技术,本实验将在熟练掌握几种常见Linux命令的基础上搭建几种常用的大数据采集、处理分析技术环境。 相关安装包下载: 链接:https://pan.baidu.com/s/1Wa2U3qstc54IAUCypcApSQ 提取码:lcd8 Hadoop大数据平台所需工具、软件

    2023年04月09日
    浏览(80)
  • Hadoop安装配置HBase

    1、文件准备 http://archive.apache.org/dist/hbase/1.3.1/下载hbase-1.3.1-bin.tar.gz并上传到虚拟机/root目录下。 2、安装          切换目录 [root@hadoop00 ~]# cd /usr/local 新建文件夹 [root@hadoop00 local]# mkdir hbase 解压文件 [root@hadoop00 local]# tar zxvf /root/hbase-1.3.1-bin.tar.gz -C /usr/local/hbase 3、环境变量

    2024年01月24日
    浏览(39)
  • hadoop -- Hbase

    HBase是一个分布式、可扩展、面向列的数据存储(百万级别列)、可伸缩、高可靠性、实时读写的NoSQL 数据库。 HBase利用 Hadoop的 HDFS作为其文件存储系统, 利用MapReduce 来处理HBase中的海量数据, 利用Zookeeper作为分布式协同服务。 HBase 基本的操作命令:  创建表:  创建一个

    2024年02月15日
    浏览(30)
  • Hadoop-Hbase

    1. Hbase安装 1.1  安装zookeeper、 hbase 解压至/opt/soft,并分别改名 配置环境变量并source生效 #ZK export ZOOKEEPER_HOME=/opt/soft/zk345 export PATH=$ZOOKEEPER_HOME/bin:$PATH #HBASE_HOME export HBASE_HOME=/opt/soft/hbase235 export PATH=$HBASE_HOME/bin:$PATH hbase235/conf 目录下的 编辑hbase-env.sh:[root@kb129 conf]# vim ./hbase-e

    2024年02月07日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包