六:HDFS -JavaAPI

  • HDFS结构介绍
    HDFS是Hadoop提供的基于分布式的文件存储系统。全称为Hadoop Distributed File System。主要由NameNode、DataNode两类节点构成。其中NameNode节点的主要功能是管理系统的元数据,负责管理文件系统的命令空间,记录文件数据块在DataNode节点上的位置和副本信息,协调客户端对文件系统的访问,以及记录命名空间的改动和本身属性的变动。DataNode节点的主要功能就是负责节点所在物理节点上的存储管理。

  • HDFS结构示意图
    这里写图片描述

  • HDFS文件系统介绍
    Hadoop提供的操作HDFS的api接口是以FileSystem为基础的,在该类中提供一系列操作文件的方法,比如:文件上传copyFromLocalFile方法,创建文件create方法,删除文件delete方法等。该类的全称为org.apache.hadoop.fs.FileSystem。主要的子类有:DistributedFileSystem, WebHdfsFileSystem等。
    通过FileSystem访问远程集群一般情况下需要给定配置信息,Hadoop通过自定义的Configuration类来给定hadoop相关的连接信息。Configuration采用延迟加载的模式来加载配置信息,加载顺序是按照代码顺序加载,但是如果在代码中强制指定的话,那么会覆盖文件中的加载。

  • Java API介绍
    官方API文档:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.6.0/api/index.html
    1.HDFS创建空文件夹
    方法:createNewFile
    参数:
    f:指定要创建文件的路径,可以为相对路径。
    返回值:如果创建成功返回true。否则返回false。

import java.io.BufferedWriter;
import java.io.IOException;
import java.io.OutputStreamWriter;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;

import junit.framework.TestCase;

public class TestCreate   extends TestCase{

    /**
     * 创建目录与文件,写入数据
     * @throws IOException
     */
    @Test
    public void test1() throws IOException{
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.83.189:9000");
        FileSystem fs = FileSystem.get(conf);
        FSDataOutputStream dos = fs.create(new Path("/edu/api/1.txt"));
        BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(dos));
        bw.write("HDFS学习实例");
        bw.newLine();
        bw.write("hadoop离线数据分析");
        bw.close();
        dos.close();
        fs.close();
    }

    @Test
    public void test2() throws IOException{
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.83.189:9000");
        FileSystem fs = FileSystem.get(conf);
        BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fs.create(new Path("/edu/api/2.txt"), (short)1)));
        bw.write("测试数据");
        bw.close();
        fs.close();
    }

}

2.HDFS写文件
方法:append
参数:
f:指定要写出文件的路径,可以为相对路径。
bufferSize: 缓冲区大小
返回值:如果创建成功获得FSDataOutputStream输出流,否则出现异常信息。

3.HDFS创建文件并输出文件内容
方法:create
参数:
f:指定要创建文件的路径,可以为相对路径。
permission:指定文件权限,默认为644(rw-r–r–)。
overwrite: 是否覆盖,默认覆盖。
bufferSize: 进行写过程中缓存区大小,默认4096。
replication: 备份个数,默认3。
blockSize: 块大小,默认128MB。
progress: 进程通知对象,默认为空。
返回值:如果创建成功,返回FSDataOutputStream对象;否则出现异常信息。
4.HDFS读文件内容
方法:open
参数:
f:指定要读取的文件路径,可以为相对路径。
bufferSize: 缓冲区大小。
返回值:如果创建成功获得FSDataInputStream输出流,否则出现异常信息。
5.HDFS创建文件夹
方法:mkdirs
参数:
f:指定要创建的文件夹路径,可以为相对路径。
permission: 指定创建文件的权限,默认755。
返回值:如果创建成功则返回true;否则返回false
6.HDFS上传文件
方法:copyFromLocal
参数:
delSrc:是否删除本地文件,默认true。
overwrite:当目标文件存在的时候,是否覆盖,默认true。
srcs/src:本地文件,可以指定为数组或者单个文件。
dst:集群存储文件。
返回值:无,如果操作失败,会产生异常信息。
其他类似方法:
moveFromLocal从本地移动文件到集群上。
copyToLocal从集群上复制文件到本地。
moveToLocal从集群上移动文件到本地。
7.HDFS删除文件
方法:delete
参数:
f:要删除的文件路径,可以为绝对路径。
recursive:是否进行递归删除,默认为true。
返回值:如果文件不存在,则返回false。如果指定recursive为false,而且要删除的文件夹不为空,那么抛出异常,如果删除成功返回true。
其他删除方法:
deleteOnExit: 如果存在则返回true,并标记删除,如果不存在,则返回false。
测试代码:
HDFS上下文配置信息初始化类:HdfsUtil

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;

public class HdfsUtil {
    public static Configuration getCofiguration() {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.83.189:9000");
        return conf;
    }

    public static FileSystem getFileSystem() throws IOException {
        return getFileSystem(getCofiguration());
    }

    public static FileSystem getFileSystem(Configuration conf) throws IOException {
        return FileSystem.get(conf);
    }
}

Junit测试类:


import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;

import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;

import com.bf.hadoop.hdfs.util.HdfsUtil;

import junit.framework.TestCase;

public class HdfsApiDemo extends TestCase {

    /**
     * 创建目录
     * 
     * @throws Exception
     */
    @Test
    public void testMkdir() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        boolean mkdirsed = fs.mkdirs(new Path("/edu/api/mkdirs"));
        System.out.println(mkdirsed);
        fs.close();
    }

    /**
     * 从本地复制到HDFS相应目录
     * 
     * @throws Exception
     */
    @Test
    public void testCopyFromLocal() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        fs.copyFromLocalFile(new Path("F:/data/1.txt"), new Path("/edu/api/3.txt"));
        fs.close();
    }

    /**
     * 从HDFS下载到本地
     * 
     * @throws Exception
     */
    @Test
    public void testCopyToLocal() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        fs.copyToLocalFile(new Path("/edu/api/2.txt"), new Path("F:/data/5.txt"));
        fs.close();
    }

    /**
     * 追加数据
     * 
     * @throws Exception
     */
    @Test
    public void testAppend() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        Path path = new Path("/edu/api/2.txt");
        FSDataOutputStream dos = fs.append(path);
        dos.write("追加的数据".getBytes());
        dos.close();
        fs.close();
    }

    /**
     * 获得文件或者目录的状态
     * 
     * @throws Exception
     */
    @Test
    public void testGetFileStatus() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        FileStatus status = fs.getFileStatus(new Path("/edu/api/1.txt"));
        System.out.println(status.isDirectory() ? "是文件夹" : "是文件");
        System.out.println("提交时间:" + status.getAccessTime());
        System.out.println("复制因子:" + status.getReplication());
        System.out.println("长度:" + status.getLen());
        System.out.println("最后修改时间:" + status.getModificationTime());
        fs.close();

    }

    /**
     * 打开文件读取数据
     * 
     * @throws Exception
     */
    @Test
    public void testOpen() throws Exception {
        FileSystem fs = HdfsUtil.getFileSystem();
        InputStream is = fs.open(new Path("/edu/api/1.txt"));
        BufferedReader br = new BufferedReader(new InputStreamReader(is));
        String line = null;
        while ((line = br.readLine()) != null) {
            System.out.println(line);
        }
        br.close();
        is.close();
        fs.close();
    }

    @Test
    public void testDel() throws Exception, IOException {
        FileSystem fs = HdfsUtil.getFileSystem();
        boolean deleted = fs.delete(new Path("/edu/api/3.txt"), true);
        // boolean deleted = fs.delete(new
        // Path("/beifeng/api/createNewFile1.txt"), true);
        System.out.println("Delete方法删除" + deleted);
        deleted = fs.deleteOnExit(new Path("/edu/api/4.txt"));
        // deleted = fs.deleteOnExit(new Path("/beifeng/api/3.txt"));
        System.out.println("DeleteOnExit方法删除:" + deleted);
        System.in.read();
        fs.close();
    }

}

以上为hdfs javaAPI基本操作介绍!

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看rEADME.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看rEADME.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
### 回答1: 第2关要求我们学习如何使用hdfs-java接口来读取文件。 Hadoop分布式文件系统(HDFS)是Hadoop的核心组件之一,它提供了一种可靠的、高容错性的分布式文件系统,可以存储大量的数据。而hdfs-java接口则是Hadoop提供的Java API,可以用来操作HDFS。 在这一关中,我们需要学习如何使用hdfs-java接口来读取HDFS中的文件。具体来说,我们需要掌握如何创建一个HDFS文件系统对象、如何打开一个HDFS文件、如何读取文件内容等操作。 通过学习这些内容,我们可以更好地理解Hadoop分布式文件系统的工作原理,也可以更加灵活地使用Hadoop来处理大数据。 ### 回答2: HDFS(Hadoop 分布式文件系统)是开源框架 Apache Hadoop 中的主要组件之一。它设计用来运行在大规模的硬件集群上,可提供容错性,高可用性和高吞吐量的数据访问。 在 HDFS 中,每个文件都分散存储在多个机器上,这些机器成为数据节点(DataNode),其中一个 Namenode 协调这些数据节点并决定文件存储的位置。HDFS 采用副本机制保障数据的可靠性,每个文件默认有三个副本。因此,在文件读取时,可以从任何一个副本节点中读取文件内容,这样可以提供数据读取的高可用性和冗余性。 HDFS 提供了 Java API 以实现读取和写入文件,这个接口称为 Hadoop HDFS Java API。这个 API 提供一系列类和接口供我们使用。例如,FileSystem、Path 和 FSDataInputStream 类可以用来打开和读取 HDFS 中的文件。其中 FileSystem 是用于访问 HDFS 中文件系统的核心类,它提供了诸如 create()、delete()、mkdir() 等操作访问文件系统。Path 类表示文件在 HDFS 中的路径,FSDataInputStream 则用于读取 HDFS 中的文件。 hdfs-read-file 示例代码: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import java.io.*; public class HdfsReadFile{ public static void main(String[] args) throws Exception{ String uri = "hdfs://localhost:9000/test/file.txt"; Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(URI.create(uri), conf); Path path = new Path(uri); FSDataInputStream in = fs.open(path); BufferedReader d = new BufferedReader(new InputStreamReader(in)); String line; while ((line = d.readLine()) != null) { System.out.println(line); } d.close(); fs.close(); } } ``` 这个程序从 HDFS 读取指定文件并输出文件的内容。其中,FileSystem.get() 方法获取以用户身份访问 HDFS 的 FileSystem 实例,Path 类维护了文件路径信息,而 FSDataInputStream 类提供了读取文件的方法。 总之,Hadoop HDFS Java API 为我们提供了开发 Hadoop 应用程序的高级接口,使得我们能够轻松地访问 HDFS,实现各种操作,例如读取、写入和删除文件等。本关卡介绍了 HDFS 文件读取,通过实现这个简单的程序,我们了解到 HDFS Java 接口的小部分。 ### 回答3: HDFS(Hadoop分布式文件系统)是Hadoop中非常重要的一个组件,它能够将海量的数据以高容错性,高吞吐量的方式存储在多个节点上,实现了对大数据的高效处理。在Java应用中,读取HDFS数据需要使用Hadoop提供的Java API来进行操作。 在读取HDFS文件之前,需要先建立连接到Hadoop集群的配置信息。建立连接的代码如下: ```java Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(new URI("hdfs://localhost:9000"), conf, "hadoop"); ``` 在这里,`conf`是一个`Configuration`对象,表示Hadoop集群的一些配置信息;`FileSystem`是Hadoop提供的管理文件系统的类,其中的`URI`参数是HDFS所在集群的网络地址,`conf`表示连接HDFS所需的配置信息,最后的`hadoop`是连接HDFS的用户名。这一段代码实现了与HDFS的连接。 接下来,就可以用`FSDataInputStream`类来读取HDFS上的文件,如下所示: ```java Path filePath = new Path("/path/to/file"); FSDataInputStream inStream = fs.open(filePath); ``` 这里,`Path`是Hadoop提供的一个表示HDFS文件路径的类,其中的参数是需要读取的文件在HDFS上的路径;`FSDataInputStream`是Hadoop提供的一个用于读取数据的数据流对象,`inStream`就是用于读取文件的一个数据流实例对象。 读取文件之后,就可以把它转换成需要的数据格式。比如,可以用`BufferedReader`读取字符文件,如下所示: ```java BufferedReader reader = new BufferedReader(new InputStreamReader(inStream)); String line; while ((line = reader.readLine()) != null) { // 处理每一行数据 } ``` 在这里,`BufferedReader`是Java提供的字符输入流缓存类,`InputStreamReader`是把字节输入流转换成字符输入流的类。使用`BufferedReader`可以一行一行地读取文件内容并进行处理。 除了字符文件之外,还可以读取二进制文件。比如,可以使用`ByteArrayOutputStream`将数据读取到字节数组中,如下所示: ```java ByteArrayOutputStream outputStream = new ByteArrayOutputStream(); byte[] buffer = new byte[1024]; int len = 0; while ((len = inStream.read(buffer)) != -1) { outputStream.write(buffer, 0, len); } byte[] data = outputStream.toByteArray(); ``` 在这里,`ByteArrayOutputStream`是Java提供的一个内存字节缓存区,使用`read`方法读取字节流,并将读取的字节数据写入缓存区中。最终使用`toByteArray`方法将缓存区中的数据转换成字节数组。 总之,使用Java API读取HDFS数据能够方便地实现对Hadoop集群中的大量数据的处理,给大数据领域的开发和运维带来了极大的便捷性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值