HDFS的API案例实操


客户端代码模板

  1. 获取一个客户端对象
  2. 执行相关的操作
  3. 关闭资源

初始化操作

private FileSystem fs;

获取一个客户端对象

@Before
    public void init() throws URISyntaxException, IOException, InterruptedException {

//       连接集群NN地址
        URI uri = new URI("hdfs://hadoop102:8020");

//        创建一个配置文件
        Configuration configuration = new Configuration();

//        用户
        String user = "atguigu";

//        获取客户端对象
        fs = FileSystem.get(uri, configuration,user);

    }

关闭资源

@After
    public void close() throws IOException {
        //        关闭资源
        fs.close();

    }

创建目录

@Test
    public void testmkdir() throws URISyntaxException, IOException, InterruptedException {

//        创建一个文件夹
        fs.mkdirs(new Path("/xiyou/huaguoshan1"));

    }

客户端上传文件到HDFS

@Test
    public void testPut() throws IOException {

//        参数解读
        /*
        * 参数一表示删除原数据
        * 参数二表示是否允许覆盖
        * 参数三源路径
        * 参数四目标地址路径
        *
        * */
        fs.copyFromLocalFile(false,true,new Path("D:\\sunwukong.txt"),new Path("/xiyou/huaguoshan/"));

    }

客户端从HDFS下载文件到本地

//    文件下载
    @Test
    public void testGet() throws IOException {
        /*
        * 参数一:源文件是否删除
        * 参数二:源文件的路径
        * 参数三:目的地址的路径 window
        * 参数四:校验
        * */

        fs.copyToLocalFile(false,new Path("/xiyou/huaguoshan/"),new Path("D:\\"),false);

    }

文件删除

//    文件删除
    @Test
    public void testRm() throws IOException {

        /*
        * 第一个参数:要删除的路径
        * 第二个参数:是否递归删除
        * */
        fs.delete(new Path("/jdk-8u212-linux-x64.tar.gz"),false);


//    删除空目录
//        fs.delete(new Path("/xiyou"),false);

//    删除非空目录
        fs.delete(new Path("/xiyou"),true);
    }

判断文件类型

//    判断是文件夹还是文件
    @Test
    public void testFile() throws IOException {

        FileStatus[] listStatus = fs.listStatus(new Path("/"));

        for (FileStatus status : listStatus) {

            if (status.isFile()) {

                System.out.println("文件:" + status.getPath().getName());

            } else {

                System.out.println("目录:" + status.getPath().getName());

            }

        }

    }
  • 8
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
HDFS API文档是指Hadoop分布式文件系统(HDFS)的应用程序编程接口(API)的文档。HDFS是一个开源的分布式文件系统,被广泛用于大规模数据存储和处理的分布式环境中。 HDFS API文档提供了开发人员使用HDFS的接口的详细说明和示例代码。它包含了一系列的类和方法,开发人员可以利用这些API来实现对HDFS中数据的读取、写入和管理。这些API提供了对HDFS文件系统的基本操作,比如创建、删除和重命名文件,以及对文件的读取、写入和追加等。 HDFS API文档的内容通常包括以下几个方面: 1. HDFS连接和配置:文档描述了如何连接到HDFS集群,并配置必要的参数,比如HDFS集群的主机名和端口等。 2. 文件操作:文档介绍了如何在HDFS上创建、删除和重命名文件,以及如何获取文件的属性和状态信息。 3. 数据读写:文档详细说明如何使用API进行数据的读取和写入操作。开发人员可以使用这些APIHDFS中读取数据,或者将数据写入HDFS。 4. 目录和权限管理:文档介绍了如何在HDFS上进行目录的创建、删除和查询等操作,并说明了如何设置和管理文件的权限。 除了上述内容,HDFS API文档还可能包含一些高级功能的介绍,比如HDFS中的数据复制和故障恢复机制等。此外,文档通常还提供了示例代码和常见问题解答,以帮助开发人员更好地理解和使用HDFS API。 总之,HDFS API文档是Hadoop分布式文件系统(HDFS)提供的编程接口的详细说明和示例代码,帮助开发人员在分布式环境中有效地读写和管理HDFS中的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

花花叔叔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值