使用Java API对HDFS进行如下操作:文件的创建、上传、下载以及删除等操作

这篇具有很好参考价值的文章主要介绍了使用Java API对HDFS进行如下操作:文件的创建、上传、下载以及删除等操作。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. HDFS-JAVA接口:上传文件

将一个本地文件(无具体要求)上传至HDFS中的/hdfs-test路径下(如无此路径,新建一个)。

新建路径:

java上传文件至hdfs,java,hdfs,hadoop

 首先在路径/usr/test/ 下新建test.txt,指令为:/usr/test/test.txt,然后进行上传操作。

package org.apache.hadoop.examples;
import java.io.FileInputStream;
public class module_info {

	public static void main(String[] args) throws Exception {
		Configuration conf=new Configuration();
		URI uri=new URI("hdfs://192.168.46.xxx:9000");
		FileSystem fs=FileSystem.get(uri,conf,"hadoop");
		Path src=new Path("/usr/test/test.txt");
		Path dst=new Path("/hdfs-test/test.txt");
		fs.copyFromLocalFile(src, dst);
		fs.close();
		System.out.println("Upload Successfully!");
		// TODO Auto-generated method stub

	}

}

     2.HDFS-JAVA接口:创建文件

在HDFS中的/hdfs-test路径下新建一个data.txt文件。

package org.apache.hadoop.examples1;
import java.io.FileInputStream;
public class CreateText {
	public static void main(String[] args) throws Exception{ 
		// TODO Auto-generated method stub
		Configuration conf = new Configuration();
		URI uri = new URI("hdfs://192.168.46.xxx:9000");
		FileSystem fs = FileSystem.get(uri, conf, "hadoop");
		Path path = new Path("/hdfs-test/data.txt");
		FSDataOutputStream newFile = fs.create(path, true); 
		newFile.writeBytes("hello"); 
		newFile.close(); 
		fs.close();
	}
}

查询发现/hdfs-test路径下新建了一个data.txt文件

java上传文件至hdfs,java,hdfs,hadoop

输入指令查看文件内容

java上传文件至hdfs,java,hdfs,hadoop

    3.HDFS-JAVA接口:下载文件

将HDFS中的/hdfs-test/data.txt文件下载到本地任一路径下。

package org.apache.hadoop.examples;
import java.net.URI;
public class DownloadText {
	public static void main(String[] args) throws Exception {
		Configuration conf=new Configuration();
		URI uri=new URI("hdfs://192.168.46.xxx:9000");
		FileSystem fs=FileSystem.get(uri,conf,"hadoop");
		Path src=new Path("/hdfs-test/data.txt");
		Path dst=new Path("/usr/test/data.txt");
		fs.copyToLocalFile(false,src,dst,true);
		fs.close();
		System.out.println("Download Successfully!");
		// TODO Auto-generated method stub
	}
}

根据路径/usr/test/data.txt查看内容,发现下载的文件data.txt

java上传文件至hdfs,java,hdfs,hadoop

   4.HDFS-JAVA接口:删除文件

将HDFS中/hdfs-test路径下的data.txt删除。文章来源地址https://www.toymoban.com/news/detail-724019.html

package org.apache.hadoop.examples;
import java.net.URI;

public class DeleteTxt {
	
	public static void main(String[] args) throws Exception {
		Configuration conf=new Configuration();
		URI uri=new URI("hdfs://192.168.46.xxx:9000");
		FileSystem fs=FileSystem.get(uri,conf,"hadoop");
		Path path=new Path("/hdfs-test/data.txt");
		fs.delete(path);
		fs.close();
		System.out.println("Delete File Successdully!");
		
		// TODO Auto-generated method stub
	}
}

到了这里,关于使用Java API对HDFS进行如下操作:文件的创建、上传、下载以及删除等操作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)

    主要涉及HDFS shell操作命令,包括创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS上多个文件并下载、删除HDFS上的文件、查看各种命令的用法等。

    2024年02月08日
    浏览(47)
  • 分布式文件系统HDFS之利用Java API与HDFS进行交互

    文章目录 一、环境要求 二、在Ubuntu中安装Eclipse 三、在Eclipse创建项目 四、为项目添加需要用到的JAR包 五、编写Java应用程序代码  总结 Hadoop不同的文件系统之间通过调用Java API进行交互,利用Java API进行交互,需要利用软件Eclipse编写Java程序。 已经配置好网络的Ubuntu系统的虚

    2023年04月21日
    浏览(38)
  • 使用javaAPI对HDFS进行文件上传,下载,新建文件及文件夹删除,遍历所有文件

    目录 //通过工具类来操作hdfs   hdfs dfs -put d:user_info.txt  /user_info.txt  // 将文件放入到hdfs中  2.通过工具类来操作hdfs   hdfs dfs -get hdfs路径   本地路经  将文件放入到本地Windows中 3.通过工具类来操作hdfs   hdfs dfs -mkdir -p  hdfs路径 4.通过工具类来操作hdfs  查看一个文件是否存在

    2024年02月12日
    浏览(51)
  • 大数据学习:使用Java API操作HDFS

    一、创建Maven项目 二、添加依赖 在 pom.xml 文件里添加 hadoop 和 junit 依赖 三、创建日志属性文件 在 resources 目录里创建 log4j.properties 文件 代码 四、在HDFS上创建文件 在 /ied01 目录创建 hadoop2.txt 文件 创建 net.xxr.hdfs 包,在包里创建 CreateFileOnHDFS 类 编写 create1() 方法 结果 利用H

    2024年02月08日
    浏览(39)
  • 大数据上课笔记之使用Java API操作HDFS

    目录 一、HDFS Java API的了解 1、HDFS常见类与接口  二、编写Java程序访问HDFS 1、在IEDA上创建Maven项目 2、添加相关依赖 3、创建日志属性文件 4、启动集群HDFS服务 5、在HDFS上创建文件  6、写入HDFS文件  7、读取HDFS文件  8、重命名目录或文件 9、显示文件列表  9.1、显示指定目录

    2024年02月07日
    浏览(38)
  • 使用Hadoop 的 Java API 操纵 HDFS 文件系统

    使用 Java 操作 HDFS 文件系统可以使用其对应的Java API,即对应三个 jar 依赖包: hadoop-common.jar (该文件在 hadoop-2.10.1.tar.gz 压缩包中的 sharehadoopcommon 目录下) hadoop-hdfs.jar (该文件在 hadoop-2.10.1.tar.gz 压缩包中的 sharehadoophdfs 目录下) hadoop-client.jar (该文件在 hadoop-2.10.1.tar.gz 压缩包

    2023年04月25日
    浏览(40)
  • 微信小程序文件上传、下载和图片处理、文件操作API的使用

    这次按照我的理解来做这部分的笔记 首先,复习上节课所学的内容。就是网络请求api的使用  现在我有一个需求就是点击按钮实现获取后端返回的图片  先打开服务器  看一下我们要返回的图片路径  书写结构  看一下返回来的数据。是在data下的banners里。因此我们封装一下

    2024年02月04日
    浏览(49)
  • 实验二、熟悉常用的HDFS操作(HDFS JavaAPI之读取/上传/删除文件)

    理解HDFS在Hadoop体系结构中的角色 熟练使用HDFS操作常用的shell命令 熟悉HDFS操作常用的Java API 操作系统:CentOS 8 Hadoop版本:3.3.1 jdk版本:1.8 Java IDE:Eclipse 1. 使用Hadoop命令操作分布式文件系统。 新建目录 在本地和hadoop中分别创建文件夹: 在本地创建目录: Hadoop创建目录: 上

    2023年04月08日
    浏览(59)
  • HDFS Java API 操作

    Hadoop是使用Java语言编写的,因此使用Java API操作Hadoop文件系统,HDFS Shell本质上就是对Java API的应用,通过编程的形式,操作HDFS,其核心是使用HDFS提供的Java API构造一个访问客户端对象,然后通过客户端对象对HDFS上的文件进行操作(增,删,改,查) 1、hdfs 常见类与接口 Hadoop

    2023年04月12日
    浏览(40)
  • Java Api操作HDFS

    链接:https://pan.baidu.com/s/1yUnJh-j9EKmL2hPF8biAtg?pwd=dv12 提取码:dv12 之前配置的 Hadoop 的 core-site.xml 文件中的配置的 fs.defaultFS 地址是 hdfs://localhost:9000 ,然后后面 Java 连不上 hdfs 9000 端口也是打开了,但就是连不上 9870 端口也能正常访问 防火墙也关闭了,也不行 查阅诸多资料发现问

    2024年04月28日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包