HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)

这篇具有很好参考价值的文章主要介绍了HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

主要涉及HDFS shell操作命令,包括创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS上多个文件并下载、删除HDFS上的文件、查看各种命令的用法等。文章来源地址https://www.toymoban.com/news/detail-714230.html


一、HDFS的相关命令

1、在HDFS创建目录

#hdfs dfs -mkdir /要创建的目录
hdfs dfs -mkdir /data
# -p表示创建多级目录,父目录和子目录一起
hdfs dfs -mkdir -p /usr/opt/data

2、查看当前目录

#ls 目录名xxx:列出目录名下的可见文件
#查看data目录下的所有可见内容
hdfs dfs -ls /usr/opt/data
#查看hdfs根目录下的内容
hdfs dfs -ls /
#查看本地Linux系统根目录下的内容
hdfs dfs -ls file:/// #相当于 ls /
#查看hdfs上目录
hdfs dfs -ls hdfs://hadoop100:8020/
#显示文件size
hdfs dfs -ls -h /data

3、查看目录与子目录

#查看根目录下的目录以及目录下的子目录
hdfs dfs -ls -R/

4、查看文件的内容

#-cat命令:将文件内容显示出来(适合小文件)
hdfs dfs -cat /usr/opt/data/a.txt
#-haed命令:查看文件前1KB的内容
hdfs dfs -head /usr/opt/data/a.txt
#-tail命令:查看文件最后1KB的内容
hdfs dfs -tail /usr/opt/data/a.txt
#-tail -f命令:可以动态显示文件中追加的内容
#在Linux系统中
tail -f 1.txt 
#hdfs
hdfs dfs -tail -f /usr/opt/data/a.txt

5、创建文件

#本地创建文件 touch
touch a.txt b.txt c.txt
#创建不存在的文件,连续创建多个空文件,用空格隔开

6、上传和拷贝文件

#-put命令:从本地文件系统拷贝到HDFS,其中/xxx/xxx/为hdfs中的路径
hdfs dfs -put a.txt /usr/opt/data
#-copyFromLocal命令:从本地文件系统拷贝到HDFS,效果与-put命令等同
hdfs dfs -copyFromLocal b.txt /usr/opt/data
#-moveFromLocal命令:从本地文件系统剪切到HDFS,命令执行完后本地文件就没有了
hdfs dfs -moveFromLocal c.txt /usr/opt/data

7、追加数据到HDFS文件中

#-appendToFile命令:将所有给定本地文件的内容追加到hdfs文件,hdf文件不存在,则创建该文件
hdfs dfs -appendToFile d.txt /usr/opt/data/a.txt

8、下载文件到Linux本地系统

#-get命令:获取文件
#将hdfs上的a.txt文件,下载到本地Linux系统的root目录下
hdfs dfs -get /usr/opt/data/a.txt /root/

9、合并HDFS上多个小文件,并下载到本地

#-getmerge命令:将hdfs中的文件合并到本地文件系统的单个文件
#将hdfs上data目录下的文件,合并,并下载到Linux系统的指定目录下
hdfs dfs -getmerge /usr/opt/data/ /opt/merge
#-getmerge -nl命令:在每个文件末尾添加换行符
#-getmerge -skip-empty-file命令:跳过空文件进行合并

10、删除HDFS上的指定目录下的文件

#删除HDFS上usr/opt/data/目录下的a.txt文件
#-rm命令:删除文件,-r:目录/子目录下所有内容
hdfs dfs -rm -r /usr/opt/data/a.txt

11、删除HDFS上的指定目录

#删除HDFS上/usr/opt/data目录的data目录
hdfs dfs -rm -r /usr/opt/data

12、查看命令的详细用法

#-help命令:输出rm命令参数
hdfs dfs -help rm

13、查看HDFS磁盘空间

#-df -h命令:显示文件系统的容量,可用空间和已用空间
hdfs dfs -df -h /

14、查看HDFS文件使用的空间量

#-du -s命令:表示显示指定路径文件长度的汇总摘要,不是单个文件的摘要
hdfs dfs -du -s 
#-du -h命令:人性化的显示文件大小
hdfs dfs -du -s -h /usr/opt/data

15、HDFS数据移动操作

#-mv命令:移动文件到指定文件夹下,并且重命名文件的名称
hdfs dfs -mv /usr/opt/data/a.txt /tmp/aaa.txt

16、修改HDFS文件副本个数

#-setrep -R:修改文件夹下及其所有
#-setrep -w:客户端是否等待副本修改完毕
hdfs dfs -settrep 2 /usr/opt/data/a.txt

到了这里,关于HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HDFS 基本 shell 操作

    调用格式: 例如: 调用格式: 注意: 直接写/是省略了文件系统的名称hdfs://ip:port。 例如: 调用格式: 例如: 调用格式: 本地文件 hello1.txt 的内容追加到 hdfs 文件 hello.txt 的后面操作如下: 原 hello.txt:hello world 原 hello1.txt:hello 追加的 hello.txt 中内容如下 查看分布式文件系统的目录

    2024年02月15日
    浏览(36)
  • HDFS的架构优势与基本操作

    如今,数据正以指数级增长,各行各业都在追求更多的数据存储、高效的数据处理和可靠的数据基础来驱动业务的发展。Hadoop Distributed File System(HDFS)作为Hadoop生态系统的核心组件之一,成为构建可靠的大数据基础的不二选择之一。本文将深入剖析HDFS的架构与优势。 HDFS(

    2024年03月13日
    浏览(31)
  • Git的基本操作(安装Git,创建本地仓库,配置Git,添加、修改、回退、撤销修改、删除文件)

    Git 是开放源代码的代码托管⼯具,最早是在Linux下开发的。开始也只能应⽤于Linux平台,后⾯慢慢的被移植到windows下,现在,Git可以在Linux、Unix、Mac和Windows这⼏⼤平台上正常运⾏了。 如果你的的平台是centos,安装git相当简单,以我的centos7.6为例: 我们还可以用下面的指令来

    2024年03月28日
    浏览(54)
  • docker基本操作:安装部署、设置ssh远程登入、配置docker镜像文件并创建docker容器

    Docker 是一个流行的应用程序容器化和部署平台,允许开发人员轻松地创建、部署和管理容器中的应用程序。 请注意运行此命令需要 root 或 sudo 权限,因此可能需要在命令前加上 sudo 并输入密码。 一、更新系统工具(ubuntu) 安装docker 查看docker版本 启动docker服务 二、一些基本

    2024年02月04日
    浏览(51)
  • 黑马大数据学习笔记2-HDFS基本操作

    https://www.bilibili.com/video/BV1WY4y197g7?p=26 切换到hadoop用户 Hadoop HDFS组件内置了HDFS集群的一键启停脚本。 $HADOOP_HOME/sbin/start-dfs.sh,一键启动HDFS集群 执行原理: 在执行此脚本的机器上,启动SecondaryNameNode 读取core-site.xml内容(fs.defaultFS项),确认NameNode所在机器,启动NameNode 读取

    2024年02月16日
    浏览(30)
  • Hadoop原理与技术——hdfs命令行基本操作

    点击链接查看文档 一、实验目的 熟悉hdfs命令行基本操作 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:hdfs常见命令: (1)查看帮助:hdfs dfs -help (2)查看当前目录信息:hdfs dfs -ls / (3)创建文件夹:hdfs dfs -mkdir /文件夹名 (4)上传文件:

    2023年04月16日
    浏览(37)
  • 云计算与大数据实验三 HDFS的基本操作

    一、实验目的 理解 HDFS 架构和工作原理 掌握 HDFS 部署环境和步骤 掌握 HDFS( 集群的启动 start-dfs.sh) 启动 使用 Hadoop 命令 ( 文件的增 / 删 / 改 / 查 / 上传 / 下载 ) 来操作分布式文件系统 二、实验内容 HDFS 伪分布式环境搭建 HDFS( 集群的启动 start-dfs.sh) 启动 练习 Hadoop 命令 ( 文件

    2024年02月04日
    浏览(26)
  • 大数据 | 实验一:大数据系统基本实验 | 熟悉常用的HDFS操作

    1 )理解 HDFS 在 Hadoop 体系结构中的角色。 2 )熟练使用 HDFS 操作常用的 shell 命令。 3 )熟悉 HDFS 操作常用的 Java API。 1 )操作系统:Linux; 2 )Hadoop 版本:3.2.2; 3 )JDK 版本:1.8; 4 )Java IDE:Eclipse。 编程实现 以下功能,并利用 Hadoop 提供的 Shell 命令 完成相同任务 1)向

    2024年02月02日
    浏览(33)
  • 2-Linux 目录介绍及基本指令和操作命令

    一、目录介绍 /:表示的是根的意思 /bin:(binary)存放的是一些二进制文件,但是在Linux中二进制文件是可以被执行的。这个目录中的命令文件是给普通用户使用(非超级管理员用户)。 /etc:Linux下所有的配置文件都会存放到etc目录。 /home:是所有非root用户家目录的一个集

    2024年02月08日
    浏览(32)
  • 通过postgresql的Ltree字段类型实现目录结构的基本操作

    将这种具有目录结构的excel表存储到数据库中,可以采用树型结构存储 上面是建一张表,并且插入一条根节点。这里我们的id是mybatisPuls提供的UUID,并且我们的path字段采用祖id+爷id+父id+子id的结构。这是处理excel表格的工具类 下面是将生成的ListMapString, String excel数据插入到e

    2024年02月12日
    浏览(24)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包