hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件

这篇具有很好参考价值的文章主要介绍了hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、实验目的

熟练掌握常用的hadoop shell命令

二、实验内容 

 

1.学习在开启、关闭Hadoop

2.学习在Hadoop中创建、修改、查看、删除文件夹及文件

3.学习改变文件的权限及文件的拥有者

4.学习使用shell命令提交job任务

5.Hadoop安全模式的进入与退出

三、实验原理或流程

调用文件系统(FS)Shell命令应使用 hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,出错信息会输出到stderr,其他信息输出到stdout。

四、实验过程及源代码

1.打开终端模拟器,切换到/apps/hadoop/sbin目录下,启动Hadoop

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

2.执行jps,检查一下Hadoop相关进程是否启动

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

3.在/目录下创建一个test1文件夹

hadoop fs -mkdir /test1  

  1. 在Hadoop中的test1文件夹中创建一个file.txt文件

hadoop fs -touchz /test1/file.txt  

  1. 查看根目录下所有文件

hadoop fs -ls /  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 还可以使用ls -R的方式递归查看根下所有文件

hadoop fs -ls -R /  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 将Hadoop根下test1目录中的file.txt文件,移动到根下并重命名为file2.txt

hadoop fs -mv /test1/file.txt /file2.txt  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

Hadoop中的mv用法同Linux中的一样,都可以起到移动文件和重命名的作用。

  1. 将Hadoop根下的file2.txt文件复制到test1目录下

hadoop fs -cp /file2.txt /test1 

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 在Linux本地/data目录下,创建一个data.txt文件,并向其中写入hello hadoop

cd /data  

touch data.txt  

echo hello hadoop! >> data.txt  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 将Linux本地/data目录下的data.txt文件,上传到HDFS中的/test1目录下hadoop fs -put /data/data.txt /test1  
  2. 查看Hadoop中/test1目录下的data.txt文件 

hadoop fs -cat /test1/data.txt  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 除此之外还可以使用tail方法

hadoop fs -tail /test1/data.txt  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

tail方法是将文件尾部1K字节的内容输出。支持-f选项,行为和Unix中一致。

  1. 查看Hadoop中/test1目录下的data.txt文件大小

hadoop fs -du -s /test1/data.txt  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

-du 后面可以不加-s,直接写目录表示查看该目录下所有文件大小

  1. text方法可以将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream。

 hadoop fs -text /test1/data.txt

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. stat方法可以返回指定路径的统计信息,有多个参数可选,当使用-stat选项但不指定format时候,只打印文件创建日期,相当于%y

hadoop fs -stat /test1/data.txt

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

下面列出了format的形式:

%b:打印文件大小(目录为0)

%n:打印文件名

%o:打印block size (我们要的值)

%r:打印备份数

%y:打印UTC日期 yyyy-MM-dd HH:mm:ss

%Y:打印自1970年1月1日以来的UTC微秒数

%F:目录打印directory, 文件打印regular file

  1. 将Hadoop中/test1目录下的data.txt文件,下载到Linux本地/apps目录中hadoop fs -get /test1/data.txt /apps  
  2. 查看一下/apps目录下是否存在data.txt文件

ls /apps  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

18.使用chown方法,改变Hadoop中/test1目录中的data.txt文件拥有者为root,使用-R将使改变在目录结构下递归进行。  

hadoop fs -chown root /test1/data.txt 

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

19.使用chmod方法,赋予Hadoop中/test1目录中的data.txt文件777权限

hadoop fs -chmod 777 /test1/data.txt

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 删除Hadoop根下的file2.txt文件

hadoop fs -rm /file2.txt 

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 删除Hadoop根下的test1目录

hadoop fs -rm -r /test1

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 当在Hadoop中设置了回收站功能时,删除的文件会保留在回收站中,可以使用expunge方法清空回收站。

hadoop fs -expunge  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。

  1. 使用Shell命令执行Hadoop自带的WordCount

首先切换到/data目录下,使用vim编辑一个data.txt文件,内容为:hello world hello hadoop hello ipieuvre

cd /data  

vim data.txt  

在HDFS的根下创建in目录,并将/data下的data.txt文件上传到HDFS中的in目录

hadoop fs -put /data/data.txt /in

执行hadoop jar命令,在hadoop的/apps/hadoop/share/hadoop/mapreduce路径下存在hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar包,我们执行其中的worldcount类,数据来源为HDFS的/in目录,数据输出到HDFS的/out目录hadoop jar /apps/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar wordcount /in /out  

查看HDFS中的/out目录

hadoop fs -ls /out 

 hadoop fs -cat /out/* 

  1. 进入Hadoop安全模式

hdfs dfsadmin -safemode enter  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 退出Hadoop安全模式

hdfs dfsadmin -safemode leave  

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

  1. 切换到/apps/hadoop/sbin目录下,关闭Hadoop

cd /apps/hadoop/sbin  ./stop-all.sh

hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件,hadoop,大数据,分布式

五、实验结论及心得

通过完成本次实验,我熟练掌握了常用的Hadoop Shell命令,并对Hadoop的基本操作有了更深入的了解。

在本次实验中,我学习了如何开启和关闭Hadoop集群。通过使用适当的命令,我能够启动和停止Hadoop服务,确保集群正常运行。

我还学习了如何在Hadoop中创建、修改、查看和删除文件夹及文件。使用命令行界面,我可以轻松地创建新的文件夹和文件,并对它们进行必要的修改和删除操作。

另外,我了解了如何改变文件的权限和文件的拥有者。通过使用适当的命令,我可以为文件设置不同的权限,以控制对文件的访问级别。我还学会了如何更改文件的所有者,以确保适当的文件管理和访问控制。

在本次实验的过程中,我还学习了如何使用Shell命令提交Hadoop作业任务。这使我能够将作业提交到Hadoop集群,并跟踪作业的执行情况。通过这种方式,我可以有效地管理和监控我的作业。

最后,我了解了Hadoop的安全模式,并学会了如何进入和退出安全模式。这对于确保集群的安全性和稳定性非常重要,因为安全模式可以防止对文件系统的意外修改。

总的来说,通过本次实验,我不仅熟悉了常用的Hadoop Shell命令,还获得了对Hadoop集群管理的实际经验。这将对我的日后工作和学习中的大数据处理任务非常有帮助。文章来源地址https://www.toymoban.com/news/detail-777542.html

到了这里,关于hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【MySQL】MySQL表的操作-创建查看删除和修改

    语法: 说明: field 表示列名 datatype 表示列的类型 set 字符集,如果没有指定字符集,则以所在数据库的字符集为准 collate 校验规则,如果没有指定校验规则,则以所在数据库的校验规则为准 说明: 不同的存储引擎,创建表的文件不一样。 users 表存储引擎是 MyISAM ,在数据目

    2024年02月03日
    浏览(66)
  • Hadoop的基础操作

    HDFS是Hadoop的分布式文件框架,它的实际目标是能够在普通的硬件上运行,并且能够处理大量的数据。 HDFS采用主从架构,其中由一个NameNode和多个DataNode NameNode负责管理文件系统的命名空间和客户端的访问 DataNode负责存储实际的数据块 HDFS的基本操作包括文件的上传,下载,删

    2024年02月11日
    浏览(45)
  • Hadoop HDFS分布式文件系统(介绍以及基础操作命令)

    目录 一、为什么需要分布式存储? 二、分布式的基础架构分析  三、HDFS基础架构 1.HDFS简介 四、HDFS集群启停命令 1.一键启停脚本 2.单进程启停 五、HDFS基本操作命令 1.创建文件夹  2.查看指定目录下内容  3.上传文件到HDFS指定目录下  4.查看HDFS文件内容 5.下载HDFS文件  6.拷贝

    2024年02月05日
    浏览(63)
  • hadoop java 创建文件夹 弹出窗口填写文件夹名称

    在Hadoop中使用Java创建文件夹时,无法弹出窗口来填写文件夹名称,因为Hadoop是一个分布式系统,运行在多台计算机上,无法直接与用户交互。 要创建文件夹,可以使用Hadoop的Java API中的Filesystem对象。以下是一个示例代码,演示如何在Hadoop中创建文件夹: 此代码创建了一个名

    2024年01月19日
    浏览(57)
  • hadoop调用HDFS java api实现在HDFS上创建文件夹

    目录 一、前期准备 1、Hadoop集群已配置完毕 2、Linux系统安装jdk 3、安装并破解IntelliJ IDEA 二、通过JAVA API操纵HDFS 1.在IDEA中创建项目  2.在hdfs项目的src-main-java路径下创建一个包,然后在包下创建一个java类实现hdfs的文件操作  3.java类的代码 4.对JAVA程序传入参数后运行程序  5

    2024年02月08日
    浏览(69)
  • GIT | 基础操作 | 初始化 | 添加文件 | 修改文件 | 版本回退 | 撤销修改 | 删除文件

    Git(读音为/gɪt/)是一个开源的分布式版本控制系统,可以有效、高速地处理从很小到非常大的项目版本管理。也是Linus Torvalds为了帮助管理Linux内核开发而开发的一个开放源码的版本控制软件。 我们这里就不多介绍这里的 GIT 了,百度百科和维基百科上都有很多介绍,我们这

    2024年02月05日
    浏览(46)
  • 开启Windows共享文件夹审核,让用户查看谁删除了文件

    在动画行业有个常用到的需求, 我的共享文件夹内的文件被谁删除了,查不到,只能查看谁创建,谁修改的,但查不到谁删除的,分享一下: 1 开始-运行-gpedit.msc 开发本地组策略编辑器, 在计算机配置-Windows设置-安全设置-高级审核策略配置-审核文件系统, 选成功。 成功删

    2024年02月12日
    浏览(50)
  • 如何查看某个文件夹的git修改记录

    要查看某个文件夹在Git中的修改记录,你可以使用 git log 命令,并指定文件夹的路径。下面是具体的步骤: 打开命令行或终端。 切换到你的Git仓库的根目录。 执行以下命令,其中 path/to/folder 是你想要查看修改记录的文件夹的相对路径: 这个命令会显示该文件夹及其内部文

    2024年03月15日
    浏览(63)
  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(60)
  • 【JaveWeb教程】(26) Mybatis基础操作(新增、修改、查询、删除) 详细代码示例讲解(最全面)

    学习完mybatis入门后,我们继续学习mybatis基础操作。 需求说明: 根据资料中提供的《tlias智能学习辅助系统》页面原型及需求,完成员工管理的需求开发。 通过分析以上的页面原型和需求,我们确定了功能列表: 查询 根据主键ID查询 条件查询 新增 更新 删除 根据主键ID删除

    2024年01月17日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包