HDFS基本命令

这篇具有很好参考价值的文章主要介绍了HDFS基本命令。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1.上传文件到HDFS文件系统

2.-appendToFile:追加一个文件到已经存在的文件末尾 

3.查看HDFS文件系统中的文件

4.查看上传到HDFS文件系统中指定文件的内容

5.从HDFS文件系统下载指定文件,并存放在指定文件中

6.删除HDFS文件系统中的指定文件

7.创建目录

8.创建多级目录

9.递归删除目录下的所有文件

10.删除指定目录

11. -chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

12.-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

13.-mv:在HDFS目录中移动文件

14.-tail:显示一个文件的末尾1kb的数据

15.-du统计文件夹的大小信息

16.-setrep:设置HDFS中文件的副本数量

17.start-all.sh启动了两套系统

18.安全模式操作

19.启动历史服务

20.查看文件机架信息

21.查看hdfs上的文件行数

22.查看hdfs上压缩文件内容


HDFS副本机制:

Bolck:数据块

        HDFS最基本的存储单元

        默认块大小:128M(2.x)

副本机制

        作用:避免数据丢失

        副本数默认为3

存放机制:

        1.一个在本地机架节点

        2.副本在同一个机架不同节点

        3.一个在不同机架的节点

HDFS优点:

        高容错性、适合大数据处理、流式数据访问、可构建在廉价的机器上

HDFS缺点:

        不适合低延时数据访问场景、不适合小文件存取场景、不适合并发写入,文件随机修改场景 

HDFS基本命令:

1.上传文件到HDFS文件系统

[root@lxm147 opt]# hdfs dfs -put ./testfile.txt /

[root@lxm147 opt]# hdfs dfs -put ./aa.txt /KB21/tt

2.-appendToFile:追加一个文件到已经存在的文件末尾 

[atguigu@hadoop102 hadoop-3.1.3]$ vim liubei.txt
输入:
liubei

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt

3.查看HDFS文件系统中的文件

[root@lxm147 opt]# hdfs dfs -ls /

[root@lxm147 opt]# hdfs dfs -ls /KB21/tt

4.查看上传到HDFS文件系统中指定文件的内容

[root@lxm147 opt]# hdfs dfs -cat /testfile.txt

5.从HDFS文件系统下载指定文件,并存放在指定文件中

[root@lxm147 opt]# hdfs dfs -get /testfile.txt ./aa.txt

6.删除HDFS文件系统中的指定文件

[root@lxm147 opt]# hdfs dfs -rm /testfile.txt

7.创建目录

[root@lxm147 opt]# hdfs dfs -mkdir /bigdata

8.创建多级目录

[root@lxm147 opt]# hdfs dfs -mkdir -p /aa/bb

9.递归删除目录下的所有文件

[root@lxm147 opt]# hdfs dfs -rm -R /KB21/tt

10.删除指定目录

[root@lxm147 opt]# hdfs dfs -rm -r /bigdata

11. -chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs  -chmod 666  /sanguo/shuguo.txt
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs  -chown  atguigu:atguigu   /sanguo/shuguo.txt

12.-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo

13.-mv:在HDFS目录中移动文件

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo

14.-tail:显示一个文件的末尾1kb的数据

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt

15.-du统计文件夹的大小信息

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
27  81  /jinguo

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo
14  42  /jinguo/shuguo.txt
7   21   /jinguo/weiguo.txt
6   18   /jinguo/wuguo.tx

16.-setrep:设置HDFS中文件的副本数量

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt

这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。 

17.start-all.sh启动了两套系统

[root@lxm147 sbin]# start-dfs.sh

[root@lxm147 sbin]# stop-dfs.sh

如何查看hdfs中的文件,# Hadoop,hdfs,hadoop,大数据

[root@lxm147 sbin]# start-yarn.sh

[root@lxm147 sbin]# stop-yarn.sh

 如何查看hdfs中的文件,# Hadoop,hdfs,hadoop,大数据

18.安全模式操作

安全模式所有的hdfs报错

# 获取当前是否为安全模式
[root@lxm147 mapreduce]# hdfs dfsadmin -safemode get

# 离开安全模式
[root@lxm147 mapreduce]# hdfs dfsadmin -safemode leave

# 进入安全模式
[root@lxm147 mapreduce]# hdfs dfsadmin -safemode enter

19.启动历史服务

[root@lxm147 ~]# mr-jobhistory-daemon.sh start historyserver
WARNING: Use of this script to start the MR JobHistory daemon is deprecated.
WARNING: Attempting to execute replacement "mapred --daemon start" instead.
[root@lxm148 ~]# jps
4546 SecondaryNameNode
6370 JobHistoryServer
4164 NameNode
4804 ResourceManager
4937 NodeManager
6393 Jps
4302 DataNode

http://lxm147:9870

http://lxm147:8042

http://lxm147:8088

http://lxm147:19888

20.查看文件机架信息

hdfs fsck <文件路径> -files  -blocks -locations -racks
# 这里的文件路径不要写到具体的文件,写到文件的上级目录即可,否则会报错


# 例如/bigdata目录下有文件,则不需要写到具体的文件
hdfs fsck /bigdata -files  -blocks -locations -racks
[root@node141 data]# hdfs dfs -ls /xx/yy/
Found 1 items
-rw-r--r--   3 root supergroup         33 2023-07-21 08:41 /xx/yy/student.txt


[root@node141 data]# hdfs dfs -cat /xx/yy/student.txt
001	zhangsan
002	lisi
003	wangwu

如何查看hdfs中的文件,# Hadoop,hdfs,hadoop,大数据文章来源地址https://www.toymoban.com/news/detail-755348.html

21.查看hdfs上的文件行数

hdfs dfs -cat test.txt | wc -l

hdfs dfs -text test.txt.gz | wc -l

22.查看hdfs上压缩文件内容

hdfs dfs -text test.txt

到了这里,关于HDFS基本命令的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)

    主要涉及HDFS shell操作命令,包括创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS上多个文件并下载、删除HDFS上的文件、查看各种命令的用法等。

    2024年02月08日
    浏览(48)
  • Hadoop3教程(三):HDFS文件系统常用命令一览

    hdfs命令的完整形式: 其中subcommand有三种形式: admin commands client commands:如本节重点要讲的dfs daemon commands dfs(文件系统命令),这个是HDFS里,日常使用 最为频繁的一种命令 ,用来在HDFS的文件系统上运行各种文件系统命令,如查看文件、删除文件等。 基本语法: 这俩基本

    2024年02月06日
    浏览(69)
  • Hadoop HDFS分布式文件系统(介绍以及基础操作命令)

    目录 一、为什么需要分布式存储? 二、分布式的基础架构分析  三、HDFS基础架构 1.HDFS简介 四、HDFS集群启停命令 1.一键启停脚本 2.单进程启停 五、HDFS基本操作命令 1.创建文件夹  2.查看指定目录下内容  3.上传文件到HDFS指定目录下  4.查看HDFS文件内容 5.下载HDFS文件  6.拷贝

    2024年02月05日
    浏览(71)
  • 大数据:HDFS存储原理,fsck命令查看文件副本状态,namenode元数据,edits流水账,fsimage合并,hdfs读取数据

    2022找工作是学历、能力和运气的超强结合体,遇到寒冬,大厂不招人,可能很多算法学生都得去找开发,测开 测开的话,你就得学数据库,sql,oracle,尤其sql要学,当然,像很多金融企业、安全机构啥的,他们必须要用oracle数据库 这oracle比sql安全,强大多了,所以你需要学

    2024年02月05日
    浏览(73)
  • 【Hadoop-HDFS】HDFS常用操作命令

    hadoop fs -ls / 普通创建: hadoop fs -mkdir /xiaolin 递归创建: hadoop fs -mkdir -p /xiaolin/xiaoyin mkdir xuan.txt hadoop fs -moveFromLocal xuan.txt /xiaolin hadoop fs -copyFromLocal xuan.txt / hadoop fs -put xuan.txt / 文件名称相同时覆盖hdfs上的文件: -f hadoop fs -put -f xuan.txt / hadoop fs -copyToLocal /xiaolin ./ hadoop fs -get

    2024年02月05日
    浏览(52)
  • Hadoop-5-HDFS常用命令

    第一类:文件路径增删改查系列: hdfs dfs -mkdir dir 创建文件夹 hdfs dfs -rmr dir 删除文件夹dir hdfs dfs -ls 查看目录文件信息 hdfs dfs -lsr 递归查看文件目录信息 hdfs dfs -stat path 返回指定路径的信息 第二类:空间大小查看系列命令: hdfs dfs -du -h dir 按照适合阅读的形式人性化显示文件

    2024年02月09日
    浏览(43)
  • 深入浅出hdfs-hadoop基本介绍

    一、Hadoop基本介绍 hadoop最开始是起源于Apache Nutch项目,这个是由Doug Cutting开发的开源网络搜索引擎,这个项目刚开始的目标是为了更好的做搜索引擎,后来Google 发表了三篇未来持续影响大数据领域的三架马车论文: Google FileSystem、BigTable、Mapreduce开始掀起来了大数据的浪潮

    2024年01月24日
    浏览(57)
  • Hadoop HDFS shell 命令行常用操作

    前言:Hadoop HDFS shell的命令和Linux的shell命令有类似的地方,基本上会使用Linux命令的话,把HDFS的理论理解一下就可以了。 一、创建文件夹  path为待创建的目录  -p选项的行为与unix mkdir -p类似,他会沿着路经创建父目录 二、查看指定目录下的内容  Path指定目录路径 -h人性化显

    2024年02月04日
    浏览(49)
  • hadoop基础:通过 Shell 命令访问 HDFS

    HDFS Shell 是由一系列类似 Linux Shell 的命令组成的。命令大致可分为 操作命令 、 管理命令 、 其他命令 三类 操作命令是以“ hdfs dfs ”开头的命令。通过这些命令,用户可以完成 HDFS 文件的 复制、删除和查找 等操作,Shell 命令的一般格式如下。 hdfs dfs [通用选项] 其中,hdfs

    2023年04月08日
    浏览(48)
  • Hadoop框架---HDFS的Shell命令操作

    有2种等效的语法格式分别为: case1: hadoop fs 具体命令 case2: hdfs dfs 具体命令 实际使用时根据 个人喜好 自由选择以上任意一种语法格式。 其有很多命令,但在生产环境中我们经常使用的命令并没有那么多,因此需要时再回头查阅上图中的命令即可。 3.1.1 启动Hadoop集群 在使用

    2024年02月05日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包