Hadoop-Java进行HDFS文件操作

Java进行HDFS文件操作


网盘提取:
链接: https://pan.baidu.com/s/1gbgasTMipzF8moVfSrB8Dw 提取码: heqb

配置pom.xml

中下载依赖包
在这里插入图片描述
查询所需要的依赖
在这里插入图片描述

<dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>4.12</version>
      <scope>test</scope>
    </dependency>
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-common</artifactId>
      <version>2.6.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-client</artifactId>
      <version>2.6.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs -->
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-hdfs</artifactId>
      <version>2.6.0</version>
    </dependency>
    <dependency>
      <groupId>commons-logging</groupId>
      <artifactId>commons-logging</artifactId>
      <version>1.2</version>
    </dependency>
    <dependency>
      <groupId>commons-logging</groupId>
      <artifactId>commons-logging</artifactId>
      <version>1.2</version>
    </dependency>
    <dependency>
      <groupId>org.junit.jupiter</groupId>
      <artifactId>junit-jupiter-api</artifactId>
      <version>RELEASE</version>
      <scope>compile</scope>
    </dependency>

Java进行HDFS文件操作

在main目录下创建resource文件夹-Project Structure
在这里插入图片描述
提前打开虚拟机,启动hadoop。

//创建文件夹
    @Test
    public void testMkdir() throws Exception {
        //创建配置文件
        Configuration conf = new Configuration();
        //获取文件系统
        FileSystem fs = FileSystem.get(new URI("hdfs://192.168.65.111:9000"),conf,"root");
        //调用API操作
        fs.mkdirs(new Path("/user/java"));
        //关闭资源
        fs.close();
    }

    @Test
    public void testCopyFromLocalFile() throws Exception {
        //创建配置文件
        Configuration conf = new Configuration();
        //获取文件系统
        FileSystem fs = FileSystem.get(new URI("hdfs://192.168.65.111:9000"),conf,"root");
        //调用API操作
        fs.copyFromLocalFile(new Path("C:\\Users\\think\\Desktop\\log4j.properties"),new Path("/user/java"));
        //关闭资源
        fs.close();
    }

    //下载
    @Test
    public void testXia() throws Exception {
        //创建配置文件
        Configuration conf = new Configuration();
        //获取文件系统
        FileSystem fs = FileSystem.get(new URI("hdfs://192.168.65.111:9000"),conf,"root");
        //调用API操作
        fs.copyToLocalFile(new Path("/b.txt"),new Path("C:/Users/think/Desktop/data/c.txt"));
        //关闭资源
        fs.close();
    }

    //删除
    @Test
    public void testShan() throws Exception {
        //创建配置文件
        Configuration conf = new Configuration();
        //获取文件系统
        FileSystem fs = FileSystem.get(new URI("hdfs://192.168.65.111:9000"),conf,"root");
        //调用API操作,b:是否递归删除、
        fs.delete(new Path("/user"),true);

        //关闭资源
        fs.close();
    }

测试的时候,下载测试时候出现java.lang.NullPointerException
自己解决方式
在windows下解压hadoop-2.6.0-cdh5.14.2.tar,hadoopBin
把解压后的hadoopBin文件:
在这里插入图片描述
全部复制到hadoop-2.6.0-cdh5.14.2/bin目录下:
在这里插入图片描述
配置环境(win10):右键此电脑-属性-高级系统设置-环境变量
系统变量:新增HADOOP_HOME:路径是hadoop-2.6.0-cdh5.14.2路径在这里插入图片描述
Path变量中加入%HADOOP_HOME%\bin和%HADOOP_HOME%\sbin:
在这里插入图片描述
然后重新打开idea-运行下载测试

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值