HDFS JAVA API(Hadoop3.0)

实验目的

1.掌握HDFS JAVA API的

2.了解JAVA API的执行流程

实验原理

1.HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础篇,为了实现本地与HDFS的文件传输,主要借助Eclipse开发环境,通过java编程实现了远程HDFS的文件创建,上传,下载,删除等。

其实对HDSF的文件操作主要有两种方式:命令行的方式和JavaAPI的方式。命令行的方式简单直接,但是必须要求本地机器也是在Linux系统中已经安装了hadoop,这对习惯用windows系统的用户来说不得不安装虚拟机,然后再在虚拟机上安装Linux系统,这是一种挑战。同时windows系统与虚拟机上安装的Linux系统进行文件传输也是要借助一些工具才可以实现。

为了实现以上所遇到诸如系统不一致,手动输入命令等的困扰,我们选择Java API的方式,有专门的API函数,可以在非Hadoop机器上实现访问,同时与系统无关(windows、Linux甚至XP系统也可以)。Hadoop中关于文件操作类基本上全部是在"org.apache.hadoop.fs"包中,Hadoop类库中最终面向用户提供的接口类是FileSystem,该类封装了几乎所有的文件操作,例如CopyToLocalFile、CopyFromLocalFile、mkdir及delete等。综上基本上可以得出操作文件的程序库框架:

operator( ) {
    得到Configuration对象
    得到FileSystem对象
    进行文件操作 
}

2.下面介绍实现上述程序库框架中各个操作的具体步骤

Java抽象类org.apache.hadoop.fs.FileSystem定义了hadoop的一个文件系统接口。该类是一个抽象类,通过以下两种静态工厂方法可以过去FileSystem实例:

public static FileSystem.get(Configuration conf) throws IOException

public static FileSystem.get(URI uri, Configuration conf) throws IOException

HDFS上的文件创建,上传,下载,删除等操作的具体方法实现:

(1)public boolean mkdirs(Path f) throws IOException

一次性新建所有目录(包括父目录), f是完整的目录路径。

(2)public FSOutputStream create(Path f) throws IOException

创建指定path对象的一个文件,返回一个用于写入数据的输出流

create()有多个重载版本,允许我们指定是否强制覆盖已有的文件、文件备份数量、写入文件缓冲区大小、文件块大小以及文件权限。

(3)public boolean copyFromLocal(Path src, Path dst) throws IOException

将本地文件拷贝到文件系统

(4)public boolean exists(Path f) throws IOException

检查文件或目录是否存在

(5)public boolean delete(Path f, Boolean recursive)

永久性删除指定的文件或目录,如果f是一个空目录或者文件,那么recursive的值就会被忽略。只有recursive=true时,一个非空目录及其内容才会被删除。

(6)FileStatus类封装了文件系统中文件和目录的元数据,包括文件长度、块大小、备份、修改时间、所有者以及权限信息。

实验环境

Linux Ubuntu 20.04

Java 1.8.0

Hadoop-3.0.0

Eclipse-JEE 2022.03

hadoop-eclipse-plugin-2.7.3.jar 

实验内容

本实验涉及到使用Java API对HDFS的一些基本操作。

1.创建类MakeDir.class,在HDFS的根目录下,创建名为hdfstest的目录。

2.创建类TouchFile.class,在HDFS的目录/hdfstest下,创建名为touchfile的文件。

3.创建类CopyFromLocalFile.class,将linux本地文件/data/mydata/sample_data,上传到HDFS文件系统的/hdfstest目录下。

4.创建类CopyToLocalFile.class,将HDFS文件系统上的文件/hdfstest/sample_data,下载到本地/data/mydata/copytolocal 。

5.创建类ListFiles.class,列出HDFS文件系统/hdfstest目录下,所有的文件,以及文件的权限、用户组、所属用户。

6.创建类IteratorListFiles.class,列出HDFS文件系统/根目录下,以及各级子目录下,所有文件以及文件的权限、用户组,所属用户。

7.了解FileSystem类下的方法,例如:判断文件是否存在、删除文件、重命名文件等。

8.创建类LocateFile.class,查看HDFS文件系统上,文件/hdfstest/sample_data的文

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要实现Hadoop HDFS Java API,可以按照以下步骤进行操作: 1. 首先,需要安装Hadoop集群和配置HDFS。可以根据自己的需求进行安装和配置,也可以使用现有的Hadoop集群。 2. 然后需要在Java项目中添加Hadoop的依赖库,可以通过Maven或手动添加。 3. 接下来,需要创建一个Configuration对象来配置Hadoop的参数,例如HDFS的地址、用户名、文件系统类型等。 4. 通过Configuration对象创建一个FileSystem对象,该对象可以用来进行HDFS文件系统的操作,例如创建目录、上传文件、下载文件等。 5. 使用FileSystem对象进行HDFS文件系统的操作,例如创建目录、上传文件、下载文件等。可以使用HDFS的Path对象来指定文件或目录的路径。 6. 最后,需要关闭FileSystem对象,以释放资源。 下面是一个示例代码,演示如何使用Hadoop HDFS Java API上传文件到HDFS: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; import java.io.InputStream; import java.net.URI; import java.nio.charset.StandardCharsets; public class HdfsExample { public static void main(String[] args) throws IOException { Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs://localhost:9000"); conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem"); FileSystem fs = FileSystem.get(URI.create("/"), conf, "hadoop"); Path file = new Path("/test.txt"); InputStream in = new ByteArrayInputStream("Hello World!".getBytes(StandardCharsets.UTF_8)); fs.mkdirs(file.getParent()); OutputStream out = fs.create(file); IOUtils.copyBytes(in, out, 4096, true); fs.close(); } } ``` 这段代码首先创建了一个Configuration对象,设置了HDFS的地址和用户名,并创建了一个FileSystem对象。然后创建了一个Path对象,指定上传文件的路径。接下来,创建了一个InputStream对象,用于读取上传文件的内容。然后先创建了父目录,最后创建了一个OutputStream对象,用于将文件内容写入到HDFS中。最后关闭FileSystem对象。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值