云计算 上传大文件至hadoop

这篇具有很好参考价值的文章主要介绍了云计算 上传大文件至hadoop。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 启动HDFS服务,查看HDFS的Web用户管理界面

手动创建一个大文件,并使用 HDFS Shell Command 进行操作,包括 dfsadmin(查看文件系统状态)、fsck(测试系统完
整性)和常规文件操作(ls、put、get 等);
①首次启动hdfs,需要格式化文件系统,后面不需要重复运行
在hadoop文件的bin目录下,执行 hdfs namenode -format

②到hadoop文件的sbin目录下,执行
./start-yarn.sh
./start-dfs.sh
再次输入jps出现jps、SecondaryNameNode、NameNode、DataNode则证明成功
本轮实现时并未出现DataNode,发现是配置文件出现问题,在hadoop文件下
找到hdfs-site.xml,增加对应tmp文件夹的子文件夹name和data即可
云计算 上传大文件至hadoop
③在本机浏览器输入localhost:50070可以实现web访问
云计算 上传大文件至hadoop

2 手动创建一个大文件,并使用 HDFS Shell Command 进行操作

①手动创建大文件
在想要创建文件夹的路径下打开中端
输入dd if=/dev/zero of=BiggestFile bs=1M count=2049
出现对应文件加载成功并能看见对应文件即成功
云计算 上传大文件至hadoop
②使用 HDFS Shell Command 进行操作
1、 hdfs dfsadmin -report
云计算 上传大文件至hadoop
2、 上传大文件
hadoop fs -mkdir /B19031517
hadoop fs -ls /
hadoop fs -put /home/ubuntu-2/YunJiSuan/BiggestFile.txt /B19031517
云计算 上传大文件至hadoop
3、 测试系统完整性
hdfs fsck /B19031517/BiggestFile.txt
上传成功后可在文件系统查看到相应文件夹和文件
云计算 上传大文件至hadoop
云计算 上传大文件至hadoop

3 查阅 HDFS 的应用开发文档(JAVA API),编写 Java 客户端

(放到主机IDEA进行编译)
文件进行上传/下载操作;
后面为java源码
源码:import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;

/**

  • author LEMON

  • date 2022-05-12-22:08
    /
    public class test {
    /
    *

    • IP地址:端口
      /
      static String STR = “hdfs://192.168.216.130:9000/”;
      /
      *

    • 上传文件本地地址
      /
      static String UPLOAD_FILE = “D:\云计算\实验二\download.txt”;
      /
      *

    • 上传Hadoop文件系统的地址
      /
      static String DES_POS = “/B19031517”;
      /
      *

    • 从Hadoop文件系统下载文件地址
      /
      static String DOWNLOAD_FILE = “/B19031517/download.txt”;
      /
      *

    • 下载文件存放地址
      /
      static String DOWNLOAD_POS = “D:\云计算\实验二”;
      /
      *

    • 用户
      */
      static String USER = “ubuntu-2”;
      public static void main(String[] args) throws Exception {
      //上传

      //1实例化configuration
      Configuration configuration = new Configuration();
      configuration.set(“fs.hdfs.impl”,“org.apache.hadoop.hdfs.DistributedFileSystem”);
      //2.获取操作文件系统的客户端实例
      FileSystem fs = FileSystem.get(new URI(STR), configuration, USER);
      //3.执行上传操作 (src 本地资源 ,dst 上传目的地)
      fs.copyFromLocalFile(new Path(UPLOAD_FILE), new Path(DES_POS));//两次上传一样的会被覆盖
      //4.关闭链接
      fs.close();
      }

    @Test
    public void download() throws Exception{
    //下载

     Configuration configuration = new Configuration();
    
     FileSystem fs = FileSystem.get(new URI(STR), configuration, USER);
    
     fs.copyToLocalFile(false, new Path(DOWNLOAD_FILE), new Path(DOWNLOAD_POS), true);
    
     fs.close();
    

    }
    }文章来源地址https://www.toymoban.com/news/detail-454091.html

到了这里,关于云计算 上传大文件至hadoop的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Vue 大文件切片上传实现指南包会,含【并发上传切片,断点续传,服务器合并切片,计算文件MD5,上传进度显示,秒传】等功能

            在Web开发中,文件上传是一个常见的功能需求,尤其是当涉及到大文件上传时,为了提高上传的稳定性和效率,文件切片上传技术便显得尤为重要。通过将大文件切分成多个小块(切片)进行上传,不仅可以有效减少单次上传的数据量,降低网络波动对上传过程的

    2024年04月28日
    浏览(50)
  • hadoop的基础操作——Hadoop中创建、修改、查看、删除文件夹及文件

    一、实验目的 熟练掌握常用的hadoop shell命令 二、实验内容    1.学习在开启、关闭Hadoop 2.学习在Hadoop中创建、修改、查看、删除文件夹及文件 3.学习改变文件的权限及文件的拥有者 4.学习使用shell命令提交job任务 5.Hadoop安全模式的进入与退出 三、实验原理或流程 调用文件系

    2024年02月03日
    浏览(60)
  • MySQL报错——Windows无法启动MySQL服务(位于本地计算机上)。错误⒉系统找不到指定的文件。、windows无法启动MySQL服务出现1053错误解决方法

    今天想使用MySQL,想在命令行窗口启动MySQL, 于是执行了如下命令: 结果报错了,如下图所示: 然后又去服务里面手动启动  结果不出所料的还是报错了,错误提示如下图所示:  看到错误提示上写有:“系统找不到指定的文件” 于是我就去看了一下路径, 我寻着路

    2024年02月06日
    浏览(48)
  • Hadoop上传文件到hdfs中

    hadoop常见指令: hdfs dfs -copyFromLocal /local/data /hdfs/data :将本地文件上传到 hdfs 上(原路径只能是一个文件) hdfs dfs -put /tmp/ /hdfs/ :和 copyFromLocal 区别是,put 原路径可以是文件夹等 hadoop fs -ls / :查看根目录文件 hadoop fs -ls /tmp/data :查看/tmp/data目录 hadoop fs -cat /tmp/a.txt :查看

    2023年04月15日
    浏览(41)
  • hadoop:hafs:上传文件、删除文件、改变文件权限等常用命令

    Hadoop是一个开源的分布式计算框架,用于处理和分析大数据集。Hadoop提供了大量的命令来管理集群、处理数据以及执行其他相关任务。 🍀以下是一些常用的Hadoop命令的汇总: 1 启动和关闭Hadoop服务 启动所有Hadoop服务 关闭所有Hadoop服务 2 HDFS文件系统命令 上传文件到HDFS 查看

    2024年04月14日
    浏览(31)
  • hadoop解决文件上传问题(DataStreamer Exceptionorg.apache.hadoop.ipc.RemoteException)

    完成Hadoop环境搭建后,使用Hadoop shell命令时---上传本地文件到HDFS的目录下,出现如下报错:          通过查资料,应该是我多次执行NameNode格式化导致的(因为多次格式化namenode会造成namenode和datanode 的 clusterID不一致 !每次格式化时,namenode会更新clusterID,但是datanode只会

    2023年04月24日
    浏览(36)
  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(62)
  • Hadoop 存储占用分析命令,查看 Hdfs 文件夹占用大小

    兼职公司 Hadoop 运维之后,经常要解决 Hdfs 空间占用的问题,不知道哪天谁又在集群上留下一大堆缓存文件也不清掉,Hadoop 本身默认就是三副本,人一多每个人留一点结果占用了一堆的存储空间。 在 Linux 上游 du 这个指令可以很轻松的结合 sort 对文件夹的大小进行排序,分析

    2024年02月15日
    浏览(53)
  • ubuntu查看系统启动项和启动服务

    指令  作用 systemctl start 服务名 开启服务 systemctl stop 服务名 关闭服务 systemctl status 服务名 显示状态 systemctl restart 服务名 重启服务 systemctl enable 服务名 开机启动服务 systemctl disable 服务名 禁止开机启动 systemctl list-units         查看系统中所有正在运行的服务 systemctl li

    2024年02月09日
    浏览(29)
  • Linux如何查看服务启动状态是否开机自动启动

    本文为joshua317原创文章,转载请注明:转载自joshua317博客 Linux如何查看服务启动状态是否开机自动启动 - joshua317的博客 linux中查看服务启动状态是否开机自动启动的方法: 1、打开linux终端; 2、在终端命令行中输入“chkconfig --list servicename”命令查看服务启动状态是否开机自动

    2023年04月09日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包