一 HDFS的Shell介绍
HDFS允许用户数据组织成文件和文件夹的方式,它提供一个叫DFSShell的接口,使用户可以和HDFS中的数据交互。命令集的语法跟其他用户熟悉的shells(bash,csh)相似。
Shell在计算机科学中俗称“壳”,是提供给使用者使用界面的进行与系统交互的软件,通过接收用户输入的命令执行相应的操作,Shell分为图形界面Shell和命令行式Shell。
文件系统(FS)Shell包含了各种的类Shell的命令,可以直接与Hadoop分布式文件系统以及其他文件系统进行交互。
命令 | 适用场合 |
---|---|
hadoop fs | 适用于任何不同的文件系统,比如本地文件系统和HDFS文件系统 |
hadoop dfs | 只能适用于HDFS文件系统 |
hdfs dfs | hdfs dfs跟hadoop dfs的命令作用一样,也只能适用于HDFS文件系统 |
二 HDFS常用命令操作
启动hadoop集群
01 创建目录
(1)创建单层目录
输入命令:hdfs dfs -mkdir /ied
在Hadoop WebUI查看创建的目录
(3)创建多层目录
输入命令:hdfs dfs -mkdir /love/books
,会报错,因为/love
目录不存在
这里可以先创建 /luzhou
目录,然后在里面再创建 lzy
子目录,但是想要一步到位,就只需要一个 -p
参数即可。
输入命令:hdfs dfs -mkdir -p /luzhou/lzy
在Hadoop WebUI查看创建的多层目录
02 查看目录
输入命令:hdfs dfs -ls /
,查看根目录(可以在任何节点上查看,结果均一样)。
输入命令:hdfs dfs -ls /love
注:如果我们要查看根目录里全部的资源,那么要用到递归参数
-R
(必须大写)。
执行命令:hdfs dfs -ls -R /
,递归查看/目录(采用递归算法遍历树结构)
03 上传本地文件到HDFS
创建一个本地目录:/document/txt,输入命令:mkdir -p /document/txt
在/txt
目录下创建一个test.txt
文件,输入命令(>:重定向命令):echo "hello hadoop world" > /document/txt/test.txt
查看test.txt文件内容,输入命令:cat /document/txt/test.txt
上传test.txt文件到HDFS的/ied目录,输入命令:hdfs dfs -put /document/txt/test.txt /ied
在Hadoop WebUI界面查看是否上传成功
04 查看文件内容
输入命令:hdfs dfs -cat /ied/test.txt
05 下载HDFS文件到本地
1.删除本地的 /document/txt/
目录下的 test.txt
文件,输入命令:rm -rf /document/txt/test.txt
2.下载HDFS文件系统的 /ied/test.txt
到本地当前目录不改名,输入命令:hdfs dfs -get /ied/test.txt /document/txt/
3.检查是否下载成功,输入命令:ll /document/txt/test.txt
可以将HDFS上的文件下载到本地指定位置,并且可以更改文件名,输入命令:hdfs dfs -get /ied/test.txt /document/txt/exam.txt
检查是否下载成功,输入命令:ll /document/txt/exam.txt
06 删除HDFS文件
输入命令:hdfs dfs -rm /ied/test.txt
检查是否删除成功,输入命令:hdfs dfs -ls /ied/test.txt
使用通配符,可以删除满足一定特征的文件
07 删除HDFS目录
输入命令:hdfs dfs -rmdir /yibin
输入命令:hdfs dfs -rmdir /love
提示: -rmdir 命令删除不了非空目录。
要递归删除才能删除非空目录:hdfs dfs -rm -r /love(-r:recursive)
08 移动目录或文件
-mv
命令兼有移动与改名的双重功能
将 /ied
目录更名为 /ied01
,输入命令:hdfs dfs -mv /ied /ied01
在Hadoop WebUI查看是否更名成功
将/ied01/exam.txt
更名为/ied01/test.txt
,输入命令:hdfs dfs -mv /ied01/exam.txt /ied01/test.txt
查看改名后的test.txt文件内容,输入命令:hdfs dfs -cat /ied01/test.txt
创建/ied02
目录,将ied01/test.txt
移动到/ied02
目录,并且改名为exam.txt
创建ied02目录,输入命令:hdfs dfs -mkdir /ied02
移动改名,输入命令:hdfs dfs -mv /ied01/test.txt /ied02/exam.txt
在Hadoop WebUI界面查看
09 文件合并下载
在/document/txt/
目录下创建sport.txt、music.txt和book.txt并上传
在Hadoop WebUI界面查看上传的三个文件,注意文件名是按字典排序了的
合并/ied01
目录的文件下载到/document/txt
目录的merger.txt
,输入命令:hdfs dfs -getmerge /ied01/* /document/txt/merger.txt
查看本地的merger.txt,看是不是三个文件合并后的内容,输入命令:cat /document/txt/merger.txt
由上图可知,merger.txt
是book.txt
、music.txt
与sport.txt
合并后的结果
10 检查文件信息
fsck: file system check —— 文件系统检查
检查/ied01/book.txt
文件,输入命令:hdfs fsck /ied01/book.txt -files -blocks -locations -racks
已知HDFS里一个文件块是128MB,上传一个大于128MB的文件,hadoop-3.3.4.tar.gz大约663.24MB
128MB×5=640MB<663.24MB<768MB=128MB×6 ,HDFS会将hadoop-3.3.4.tar.gz分割成6块
输入命令:hdfs dfs -put /opt/hadoop-3.3.4.tar.gz /ied01
,将hadoop压缩包上传到HDFS的/ied01
目录
查看HDFS上hadoop-3.3.4.tar.gz文件信息,输入命令:hdfs fsck /ied01/hadoop-3.3.4.tar.gz -files -locations -racks
在Hadoop WebUI来查看文件块信息更加方便,总共有6个文件块:Block0、Block1、Block2、Block3、Block4、Block5
第1个文件块信息
第6个文件块信息
11 创建时间戳文件
在/ied01
目录里创建一个文件sunshine.txt,执行命令:hdfs dfs -touchz /ied01/sunshine.txt
在Hadoop WebUI来查看到创建的是一个空文件,大小为0字节
这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在/ied01
目录下创建sunshine.txt
同名文件
说明:如果touchz命令的路径指定的文件不存在,那就创建一个空文件;如果指定的文件存在,那就改变该文件的时间戳。
12 复制文件或目录
cp: copy - 拷贝或复制
(1)同名复制文件
将/ied01/music.txt
复制到/ied02
里,输入命令:hdfs dfs -cp /ied01/music.txt /ied02
查看拷贝生成的文件
(2)改名复制文件
将/ied01/book.txt
复制到/ied02
目录,改名为read.txt
,输入命令:hdfs dfs -cp /ied01/book.txt /ied02/read.txt
查看拷贝后的文件内容,输入命令:hdfs dfs -cat /ied02/read.txt
源文件book.txt
依然存在
(3)复制目录
将/ied01
目录复制到/ied03
目录,输入命令:hdfs dfs -cp /ied01 /ied03
查看拷贝后的/ied03
目录,输入命令:hdsf dfs -ls /ied03
, 其内容跟/ied01
完全相同
13 查看文件大小
du: disk usage
输入命令:hdfs dfs -du /ied01/book.txt
可以看到文件/ied01/book.txt大小是12个字符,包含9个字母、2个空格和一个看不见的结束符
14 上传文件
-copyFromLocal
类似于-put
,输入命令:hdfs dfs -copyFromLocal merger.txt /ied02
查看是否上传成功,输入命令:hdfs dfs -ls /ied02
15 下载文件
-copyToLocal
类似于-get
,执行命令:hdfs dfs -copyToLocal /ied01/sunshine.txt /document/txt/sunlight.txt
查看是否下载成功,输入命令:ll /document/txt/
16 查看某目录下文件个数
输入命令:hdfs dfs -count /ied01
17 检查hadoop本地库
输入命令:hadoop checknative -a
查看hadoop本地库文件
18 进入和退出安全模式
(1)进入安全模式
输入命令:hdfs dfsadmin -safemode enter
,
注意:进入安全模式之后,只能读不能写
此时,如果要创建目录,就会报错
文章来源:https://www.toymoban.com/news/detail-407105.html
(2)退出安全模式
输入命令:hdfs dfsadmin -safemode leave
此时,创建目录/ied04
就没有任何问题
文章来源地址https://www.toymoban.com/news/detail-407105.html
到了这里,关于大数据:HDFS的Shell常用命令操作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!