Hadoop大数据从入门到实战(二)分布式文件系统HDFS

这篇具有很好参考价值的文章主要介绍了Hadoop大数据从入门到实战(二)分布式文件系统HDFS。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

头歌实践教学平台

教学课堂

大数据从入门到实战 - 第2章 分布式文件系统HDFS

第1关:HDFS的基本操作

任务描述

本关任务:使用Hadoop命令来操作分布式文件系统。

编程要求

在右侧命令行中启动Hadoop,进行如下操作。

  • HDFS中创建/usr/output/文件夹;
  • 在本地创建hello.txt文件并添加内容:“HDFS的块比磁盘的块大,其目的是为了最小化寻址开销。”;
  • hello.txt上传至HDFS/usr/output/目录下;
  • 删除HDFS/user/hadoop目录;
  • Hadoop上的文件hello.txtHDFS复制到本地/usr/local目录。

测试说明

平台会查看你本地的文件和HDFS的文件是否存在,如果存在,则会将其内容输出到控制台。

预期输出:

HDFS的块比磁盘的块大,其目的是为了最小化寻址开销。

HDFS的块比磁盘的块大,其目的是为了最小化寻址开销。

代码

start-dfs.sh
hadoop fs -mkdir /usr
hadoop fs -mkdir /usr/output
vim hello.txt
hadoop fs -put hello.txt /usr/output
hadoop fs -rm -r /user/hadoop
hadoop fs -copyToLocal /usr/output/hello.txt /usr/local

截图

hdfs创建文件夹,大数据,hadoop,分布式

 第2关:HDFS-JAVA接口之读取文件

任务描述

本关任务:使用HDFSJava接口进行文件的读写,文件uri地址为hdfs://localhost:9000/user/hadoop/task.txt

编程要求

在右侧代码编辑区中编写代码实现如下功能:

  • 使用FSDataInputStream获取HDFS/user/hadoop/目录下的task.txt的文件内容,并输出,其中urihdfs://localhost:9000/user/hadoop/task.txt

测试说明

点击评测,平台会通过脚本创建/user/hadoop/task.txt文件并添加相应内容,无需你自己创建,开启hadoop,编写代码点击评测即可。因为Hadoop环境非常消耗资源,所以你如果一段时间不在线,后台会销毁你的镜像,之前的数据会丢失(你的代码不会丢失),这个时候需要你重新启动Hadoop

预期输出: WARN [main] - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 怕什么真理无穷,进一寸有一寸的欢喜。

第一行打印出来的是log4j的日志警告,可以忽略。

代码

//请在Begin-End之间添加你的代码,完成任务要求。
/********* Begin *********/
URI uri = URI.create("hdfs://localhost:9000/user/hadoop/task.txt");
Configuration config = new Configuration();
FileSystem fs = FileSystem.get(uri, config);
InputStream in = null;
try{
    in = fs.open(new Path(uri));
    IOUtils.copyBytes(in,System.out,2048,false);
}catch(Exception e){
    IOUtils.closeStream(in);
}
/********* End *********/

截图

hdfs创建文件夹,大数据,hadoop,分布式

hdfs创建文件夹,大数据,hadoop,分布式

第3关:HDFS-JAVA接口之上传文件

任务描述

本关任务:使用HDFSAPI上传文件至集群。

编程要求

在右侧代码编辑区和命令行中,编写代码与脚本实现如下功能:

  • /develop/input/目录下创建hello.txt文件,并输入如下数据: 迢迢牵牛星,皎皎河汉女。 纤纤擢素手,札札弄机杼。 终日不成章,泣涕零如雨。 河汉清且浅,相去复几许? 盈盈一水间,脉脉不得语。 《迢迢牵牛星》

  • 使用FSDataOutputStream对象将文件上传至HDFS/user/tmp/目录下,并打印进度。

测试说明

平台会运行你的java程序,并查看集群的文件将文件信息输出到控制台,第一行属于警告信息可以忽略。

预期输出:

hdfs创建文件夹,大数据,hadoop,分布式

 代码

//请在 Begin-End 之间添加代码,完成任务要求。
        /********* Begin *********/
		File localPath = new File("/develop/input/hello.txt");
        String hdfsPath = "hdfs://localhost:9000/user/tmp/hello.txt";
        InputStream in = new BufferedInputStream(new FileInputStream(localPath));
        Configuration conf = new Configuration();
        FileSystem fs = FileSystem.get(URI.create(hdfsPath),conf);
        long fileSize = localPath.length() > 65536 ? localPath.length() / 65536 : 1;
        FSDataOutputStream out = fs.create(new Path(hdfsPath),new Progressable(){
            long fileCount = 0;
            public void progress(){
                System.out.println("总进度"+(fileCount / fileSize) * 100 + "%");
                fileCount++;
            }
        });
		IOUtils.copyBytes(in,out,2048,true);
		
		
		/********* End *********/

 截图

hdfs创建文件夹,大数据,hadoop,分布式

 hdfs创建文件夹,大数据,hadoop,分布式

第4关:HDFS-JAVA接口之删除文件 

任务描述

本关任务:删除HDFS中的文件和文件夹。

编程要求

在右侧代码区填充代码,实现如下功能:

  • 删除HDFS/user/hadoop/目录(空目录);
  • 删除HDFS/tmp/test/目录(非空目录);
  • 列出HDFS根目录下所有的文件和文件夹;
  • 列出HDFS/tmp/的所有文件和文件夹。

测试说明

HDFS的文件夹在你点击评测是会通过脚本自动创建,不需要你自己创建哦,依照题意编写代码点击评测即可。

预期输出:

hdfs创建文件夹,大数据,hadoop,分布式

 代码

//请在 Begin-End 之间添加代码,完成本关任务。
        /********* Begin *********/
        String uri = "hdfs://localhost:9000/";
        String path1 = "hdfs://localhost:9000/user/hadoop";
        String path2 = "hdfs://localhost:9000/tmp/test";
        Configuration config = new Configuration();
        FileSystem fs = FileSystem.get(URI.create(uri),config);
        fs.delete(new Path(path1),true);
        fs.delete(new Path(path2),true);
        Path[] paths = {new Path(uri),new Path("hdfs://localhost:9000/tmp")};
        FileStatus[] status = fs.listStatus(paths);
        Path[] listPaths = FileUtil.stat2Paths(status);
 
        for(Path path : listPaths){
            System.out.println(path);
        }
 
        /********* End *********/

截图

hdfs创建文件夹,大数据,hadoop,分布式

 hdfs创建文件夹,大数据,hadoop,分布式

 文章来源地址https://www.toymoban.com/news/detail-526194.html

到了这里,关于Hadoop大数据从入门到实战(二)分布式文件系统HDFS的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop:HDFS--分布式文件存储系统

    目录   HDFS的基础架构 VMware虚拟机部署HDFS集群 HDFS集群启停命令 HDFS Shell操作 hadoop 命令体系: 创建文件夹 -mkdir  查看目录内容 -ls  上传文件到hdfs -put 查看HDFS文件内容 -cat 下载HDFS文件 -get 复制HDFS文件 -cp 追加数据到HDFS文件中 -appendToFile HDFS文件移动 -mv  删除HDFS文件 -rm  

    2024年02月09日
    浏览(58)
  • HDFS Hadoop分布式文件存储系统整体概述

    整体概述举例: 包括机架 rack1、rack2 包括5个Datanode,一个Namenode( 主角色 )带领5个Datanode( 从角色 ),每一个rack中包含不同的block模块文件为 分块存储模式 。块与块之间通过replication进行 副本备份 ,进行冗余存储,Namenode对存储的 元数据进行记录 。该架构可以概括为一个 抽象

    2024年02月16日
    浏览(71)
  • hadoop-hdfs分布式文件系统理论(一)

    可以更好的支持分布式计算。 hadoop distribute file system是一个分布式 文件系统,操作的是文件,增、删都是以文件为单位。 文件线性按字节切割成块(block),具有offset,id offset是指block的偏移量,比如block大小是10,offset可以是0,10,20,30。。。 id是block的名称,比如block1,block

    2024年02月11日
    浏览(55)
  • Hadoop的分布式文件存储系统HDFS组件的使用

    存储整个HDFS集群的元数据(metaData) —— 整个集群中存储的目录和文件的索引 管理整个HDFS集群 接收客户端的请求 负责节点的故障转移 存储数据,是以block块的形式进行数据的存放。 默认情况下block块的大小是128M。 blocksize大小的计算公式: 寻址时间:下载文件时找到文件

    2024年02月09日
    浏览(77)
  • Hadoop HDFS分布式文件系统(介绍以及基础操作命令)

    目录 一、为什么需要分布式存储? 二、分布式的基础架构分析  三、HDFS基础架构 1.HDFS简介 四、HDFS集群启停命令 1.一键启停脚本 2.单进程启停 五、HDFS基本操作命令 1.创建文件夹  2.查看指定目录下内容  3.上传文件到HDFS指定目录下  4.查看HDFS文件内容 5.下载HDFS文件  6.拷贝

    2024年02月05日
    浏览(71)
  • 大数据 | 实验零:安装 Hadoop 伪分布式系统

    👀 前言 :本篇是个人配置环境的总结,基于指导书,补充了许多在配置过程中出现的问题的解决细节。希望能帮到你😄。 Vmware workstation pro 16 Ubuntu 20.04 JDK 1.8 Hadoop 3.2.2 下边资源是本篇博客会用到的相关文件 (建议直接下载,相关代码直接对应的下述文件, 下载完先不要动

    2023年04月17日
    浏览(48)
  • Hadoop是一个开源的分布式处理系统,主要用于处理和存储大量数据

    Hadoop是一个开源的分布式处理系统,主要用于处理和存储大量数据。它是由Apache软件基金会开发的,现在已经成为大数据领域中广泛使用的技术之一。 Hadoop架构 Hadoop的架构包括以下几个主要组件: Hadoop Distributed File System (HDFS) : HDFS是Hadoop的核心组件之一,它是一个分布式文

    2024年02月04日
    浏览(58)
  • 大数据——HDFS(分布式文件系统)

    Hadoop的两大核心组件 HDFS ( Hadoop Distributed Filesystem ):是一个易于扩展的 分布式文件系统 ,运行在 成百上千 台 低成本 的 机器 上。 HDFS 具有 高度容错能力 ,旨在部署在低成本机器上。 HDFS 主要用于对 海量文件信息 进行 存储 和 管理 ,也就是解决大数据文件(如 TB 乃至

    2023年04月17日
    浏览(62)
  • 【云计算】Hadoop2.x完全分布式集群(入门)

    【虚拟机】VMware Workstation 16 Pro 【镜像】CentOS-7-x86_64-DVD-1804.iso 【java】jdk-8u281-linux-x64.rpm 【Hadoop】hadoop-2.7.1.tar.gz 【SSH远程】SecureCRTPortable.exe 【上传下载】SecureFXPortable.exe 配网卡ens33 重启网络 私钥、公钥 克隆、改名、改IP 三台机都要做:👇 生成密钥 密钥发送 登录测试 had

    2024年04月12日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包