Hadoop HDFS API上传文件

package com.atguigu.hdfs;


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;


import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;

public class HdfsClient {

    public static void main(String[] args) {
        HdfsClient S1 = new HdfsClient();
        try {
            S1.testPut();
        } catch (IOException e) {
            e.printStackTrace();
        } catch (URISyntaxException e) {
            e.printStackTrace();
        }

    }
    @Test
    public void testPut() throws  IOException, URISyntaxException {
        //集群地址
        URI uri = new URI("hdfs://192.168.10.102:8020");
        //创建配置文件
        Configuration configuration = new Configuration();
        String user ="atguigu";
        FileSystem fs= null;
        //获取客户端对象
        try {

            fs = FileSystem.get(uri,configuration,user);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        //参数1 表示删除数据 参数2 表示是否覆盖 参数3数据上传路径 参数4目的地路径
        fs.copyFromLocalFile(false,false,new Path("E:\\Uninstall.xml"),new Path("/FBoutput"));
        //回收
        fs.close();

    }


}

路径要绝对路径

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值