HDFS API常用的方法及使用

POM依赖

<repositories>
    <repository>
        <id>cloudera</id>
        <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
</repositories>
<dependencies>
    <dependency>
        <groupId>org.apache.Hadoop</groupId>
        <artifactId>Hadoop-client</artifactId>
        <version>2.6.0-mr1-cdh5.14.0</version>
    </dependency>
    <dependency>
        <groupId>org.apache.Hadoop</groupId>
        <artifactId>Hadoop-common</artifactId>
        <version>2.6.0-cdh5.14.0</version>
    </dependency>
    <dependency>
        <groupId>org.apache.Hadoop</groupId>
        <artifactId>Hadoop-hdfs</artifactId>
        <version>2.6.0-cdh5.14.0</version>
    </dependency>

    <dependency>
        <groupId>org.apache.Hadoop</groupId>
        <artifactId>Hadoop-mapreduce-client-core</artifactId>
        <version>2.6.0-cdh5.14.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/junit/junit -->
    <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>4.11</version>
        <scope>test</scope>
    </dependency>
    <dependency>
        <groupId>org.testng</groupId>
        <artifactId>testng</artifactId>
        <version>RELEASE</version>
    </dependency>
</dependencies>
<build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <version>3.0</version>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
                <encoding>UTF-8</encoding>
                <!--    <verbal>true</verbal>-->
            </configuration>
        </plugin>

        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-shade-plugin</artifactId>
            <version>2.4.3</version>
            <executions>
                <execution>
                    <phase>package</phase>
                    <goals>
                        <goal>shade</goal>
                    </goals>
                    <configuration>
                        <minimizeJar>true</minimizeJar>
                    </configuration>
                </execution>
            </executions>
        </plugin>
      <!--  <plugin>
            <artifactId>maven-assembly-plugin </artifactId>
            <configuration>
                <descriptorRefs>
                    <descriptorRef>jar-with-dependencies</descriptorRef>
                </descriptorRefs>
                <archive>
                    <manifest>
                        <mainClass>cn.itcast.Hadoop.db.DBToHdfs2</mainClass>
                    </manifest>
                </archive>
            </configuration>
            <executions>
                <execution>
                    <id>make-assembly</id>
                    <phase>package</phase>
                    <goals>
                        <goal>single</goal>
                    </goals>
                </execution>
            </executions>
        </plugin>-->
    </plugins>
</build>

HDFS API

上传本地数据到HDFS系统

copyFromLocalFile()

	/**
     * 上传本地数据到HDFS系统
     */
    @Test
    public void copyFromLocalFile() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21/"), configuration);
        fileSystem.copyFromLocalFile(new Path("D://123.txt"), new Path("/"));

        fileSystem.close();
    }

删除指定路径下的文件

delete()

    /**
     * 删除指定路径下的文件
     */
    public void deleteFile() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21/"), configuration);
        Path rmPath = new Path("/abc/a.txt");
        /**
         * recursive 是否进行递归删除该文件夹下所有的文件?
         * true:是
         * false:否
         */
        boolean delete = fileSystem.delete(rmPath, true);

        System.out.println(delete ? "文件删除成功" : "文件删除失败");
        fileSystem.close();
    }

创建文件夹及文件,并向文件中写入数据

mkdir()
create()

    /**
     * 创建文件夹/abc和a.txt文件,并向a.txt文件中写入数据
     */
    public void createData() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21"), configuration);
        FSDataOutputStream fsDataOutputStream = null;
        // 检查要创建的文件夹是否已在文件系统中存在
        Path dir = new Path("/abc");
        if (!fileSystem.exists(dir)) {
            fileSystem.mkdirs(dir);
        }

        // 检查要创建的文件是否已在文件系统中存在
        Path file = new Path(dir, "/a.txt");
        if (!fileSystem.exists(file)) {
            fsDataOutputStream = fileSystem.create(file, true, 4096, new Progressable() {
                @Override
                public void progress() {
                    System.out.println("显示创建进度(可有可无)");
                }
            });

        }
        
		byte[] bytes = "向文件中写入的数据内容".getBytes();

        fsDataOutputStream.write(bytes, 0, bytes.length);
        fsDataOutputStream.flush();
        fsDataOutputStream.close();
        fileSystem.close();
    }

获取指定文件的日期

getFileStatus()
getModificationTime()

    /**
     * 获取指定文件的日期
     */
    public void getTime() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21/"), configuration);
        FileStatus fileStatus = fileSystem.getFileStatus(new Path("/a.txt"));
        long modificationTime = fileStatus.getModificationTime();

        System.out.println(modificationTime);
        fileSystem.close();
    }

重命名目录

rename()

	/**
     * 重命名目录名
     */
    public void rename() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21/"), configuration);
        Path oldPath = new Path("/abc");
        Path newPath = new Path("/123");

        boolean rename = fileSystem.rename(oldPath, newPath);
        System.out.println(rename ? "重命名成功" : "重命名失败");
        fileSystem.close();
    }

获取指定路径所有的文件

listStatus()

	/**
     * 获取指定路径所有的文件(HDFS文件系统中根路径的所有文件)
     */
    public void listStatus() throws Exception {
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(new URI("hdfs://192.168.100.21/"), configuration);
        FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/"));
        
        for (FileStatus fileStatus : fileStatuses) {
            System.out.println(fileStatus.getPath().toString());
        }
        fileSystem.close();
    }
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFSHadoop分布式文件系统)是Hadoop生态系统中的核心组件,用于在分布式环境下存储和处理大规模数据。HDFS支持多种编程语言的API,其中Java是最常用的。 HDFS的Java API提供了一系列类和方法,可以方便地对HDFS进行读写操作。下面是一些常用HDFS Java API及其应用实例: 1. Configuration类:用于加载Hadoop配置文件,创建和管理配置对象。可以通过Configuration类的方法设置HDFS的各种参数,比如文件块大小、副本数等。 2. FileSystem类:用于操作HDFS中的文件和目录。可以通过FileSystem类创建、删除和重命名文件,也可以读写文件中的内容。以下是一个示例代码: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class HdfsExample { public static void main(String[] args) { try { // 加载Hadoop配置文件 Configuration conf = new Configuration(); // 创建FileSystem对象 FileSystem fs = FileSystem.get(conf); // 在HDFS创建一个新文件 Path filePath = new Path("/user/hadoop/test.txt"); fs.create(filePath); // 写入文件内容 String content = "Hello, HDFS!"; byte[] bytes = content.getBytes(); fs.writeFile(filePath, bytes); // 读取文件内容 byte[] buffer = new byte[1024]; int bytesRead = fs.open(filePath).read(buffer); String fileContent = new String(buffer, 0, bytesRead); System.out.println("文件内容:" + fileContent); // 删除文件 fs.delete(filePath); // 关闭FileSystem对象 fs.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 以上示例代码演示了如何使用HDFS Java API创建、写入、读取和删除文件。 除了以上的常用APIHDFS的Java API还提供了许多其他的类和方法,用于实现更复杂的操作,比如文件复制、权限管理、检查点等。开发者可以根据自己的需求选择适合的API进行使用

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值