HDFS的API操作

文章详细描述了如何在Java中使用ApacheHDFS进行文件上传和下载,包括创建FileSystem客户端、配置参数以及单元测试中的@Before和@After方法的使用。
摘要由CSDN通过智能技术生成

1、HDFS文件上传

private FileSystem fs; 
@Before
    public void before() throws URISyntaxException, IOException, InterruptedException {
        System.out.println("-------------before--------------");
        //1.创建客户端对象
        /*
        * get(final URI uri,final Configuration conf,final String user)
        * uri:HDFS的地址(NameNode的地址)
        * conf:在conf中设置一些配置参数
        * user:操作HDFS的用户名
        * */
        URI uri = new URI("hdfs://hadoop102:8020");
        Configuration conf = new Configuration();
        fs = FileSystem.get(uri, conf, "atguigu");
    }
    /*
     *在单元测试方法执行后执行
     * */
    @After
    public void after(){
        System.out.println("----------------------after-------------------");
        if (fs != null){
            try {
                fs.close();
            } catch (IOException e) {
                throw new RuntimeException(e);
            }
        }
    }
    //上传
    @Test
    public void test() throws IOException {
        System.out.println("---------上传----------");
        /*
        * copyFromLocalFile(boolean delSrc,boolean overwrite,Path src,Path dst)
        * delSrc:是否删除源文件(本地的)
        * overwrite:如果目标文件存在是否覆盖
        * true:表示覆盖
        * false:不覆盖(如果目标文件存在直接报错)
        * src:源文件路径(本地)
        * dst:目标文件路径(HDFS)
        * */
        fs.copyFromLocalFile(false,true,
                new Path("E:\\hadoop_test\\test0\\longge.txt"),
                new Path("/input3"));
    }

所用的包如下:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

2、HDFS下载

private FileSystem fs;
    /*
    *在单元测试方法执行前执行
    * */
    @Before
    public void before() throws URISyntaxException, IOException, InterruptedException {
        System.out.println("-------------before--------------");
        //1.创建客户端对象
        /*
        * get(final URI uri,final Configuration conf,final String user)
        * uri:HDFS的地址(NameNode的地址)
        * conf:在conf中设置一些配置参数
        * user:操作HDFS的用户名
        * */
        URI uri = new URI("hdfs://hadoop102:8020");
        Configuration conf = new Configuration();
        fs = FileSystem.get(uri, conf, "atguigu");
    }
    /*
     *在单元测试方法执行后执行
     * */
    @After
    public void after(){
        System.out.println("----------------------after-------------------");
        if (fs != null){
            try {
                fs.close();
            } catch (IOException e) {
                throw new RuntimeException(e);
            }
        }
    }
  }

    //下载
    @Test
    public void test2(){
        System.out.println("-----------下载------------");
        /*
        * copyToLocalFile(boolean delSrc,Path dst,boolean useRawLocalFileSystem)
        * delSrc:是否删除源文件(HDFS上的)
        * src:源文件路径(HDFS上的)
        * dst:目标文件路径(Windows)
        * useRawLocalFileSystem:是否使用useRawLocalFileSystem文件系统
        *   true:不会产生crc文件
        *   false:会产生一个crc文件
        * */
        try {
            fs.copyToLocalFile(false,new Path("/input3/longge.txt"),
                    new Path("E:\\hadoop_test\\test0"),false);
        } catch (IOException e) {
            throw new RuntimeException(e);
        }
    }

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值