JAVA操作HDFS

JAVA操作HDFS

JAVA直接操作

利用maven 导入Jar包pom.xml:

<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0-cdh5.14.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.6.0-cdh5.14.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.6.0-cdh5.14.2</version>
</dependency>

将本地文件上传到hdfs服务器:

    /**
     * 上传文件到hdfs上
     */
    @Test
    public void upload() throws IOException {
        Configuration conf = new Configuration();
         conf.set("fs.defaultFS","hdfs://192.168.146.2:9000")
        FileSystem fs = FileSystem.get(conf);
         fs.copyFromLocalFile(new Path("E:/照片/20201031/IMG_6404.JPG" ),new Path("/testHDFS/java/hello"));
    }

解析:
在开发中我没有引入“core-site.xml”配置文件,所以在本地调用时使用conf进行配置“conf.set(“fs.defaultFS”,“hdfs://hzq:9000”);“,下面雷同。

将hdfs上文件下载到本地:

    /**
     * 将hdfs上文件下载到本地
     */
    @Test
    public void download() throws IOException {
        Configuration conf = new Configuration();
         conf.set("fs.defaultFS","hdfs://192.168.146.2:9000")
        FileSystem fs = FileSystem.newInstance(conf);
        fs.copyToLocalFile(new Path("/testHDFS/java/hello/IMG_6404.JPG"),new Path("./"));
    }

删除hdfs上指定文件:

    /**
     * 删除hdfs上的文件
     * @throws IOException
     */
    @Test
    public void removeFile() throws IOException {
        Configuration conf = new Configuration();
         conf.set("fs.defaultFS","hdfs://192.168.146.2:9000")
        FileSystem fs = FileSystem.newInstance(conf);
        fs.delete(new Path("/testHDFS/java/hello/IMG_6404.JPG"),true);
    }

在hdfs上创建文件夹:

    /**
     * 在hdfs更目录下面创建test1文件夹
     * @throws IOException
     */
    @Test
    public void mkdir() throws IOException {
        Configuration conf = new Configuration();
         conf.set("fs.defaultFS","hdfs://192.168.146.2:9000")
        FileSystem fs = FileSystem.newInstance(conf);
        fs.mkdirs(new Path("/test1"));
    }

列出hdfs上所有的文件或文件夹:

 @Test
    public void listFiles() throws IOException {
        Configuration conf = new Configuration();
         conf.set("fs.defaultFS","hdfs://192.168.146.2:9000")
        FileSystem fs = FileSystem.newInstance(conf);
        // true 表示递归查找  false 不进行递归查找
        RemoteIterator<LocatedFileStatus> iterator = fs.listFiles(new Path("/"), true);
        while (iterator.hasNext()){
            LocatedFileStatus next = iterator.next();
            System.out.println(next.getPath());
        }
        System.out.println("----------------------------------------------------------");
        FileStatus[] fileStatuses = fs.listStatus(new Path("/"));
        for (int i = 0; i < fileStatuses.length; i++) {
            FileStatus fileStatus = fileStatuses[i];
            System.out.println(fileStatus.getPath());
        }
    }

运行结果:

在这里插入图片描述
与实际情况对比完全一致:
在这里插入图片描述

结果分析:

“listFiles“列出的是hdfs上所有文件的路径,不包括文件夹。根据你的设置,支持递归查找。

”listStatus“列出的是所有的文件和文件夹,不支持递归查找。如许递归,需要自己实现。

Liunx系统调用java jar包操作

传参代码如下:

只是为了演示功能,所以只做了一个新建文件夹的功能

public class TestHDFS {
    FileSystem fs;
    public void initFS(String fsPath,String user){
        Configuration conf=new Configuration();
        try {
            fs=FileSystem.get(new URI(fsPath),conf,user);
        } catch (IOException e) {
            e.printStackTrace();
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (URISyntaxException e) {
            e.printStackTrace();
        }
}
    public void createDir(String path){
        try {
            fs.mkdirs(new Path(path));
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
    public static void main(String[] args) throws IOException {
        TestHDFS test=new TestHDFS();
        test.initFS(args[0],args[1]);
        test.createDir(args[2]);
        }

设置需要传递的参数

在这里插入图片描述

在这里插入图片描述

生成jar包

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

linux系统调用jar包

linux系统进入对应的放jar包的文件路径后,输入命令:

hadoop jar _20210319hdfs.jar cn.kgc.kb11.test.TestHDFS hdfs://hadoop100:9000 root /testHDFS/java/abc/dfs

hadoop jar 表示hadoop调用jar包

_20210319hdfs.jar 为jar的名称

cn.kgc.kb11.test.TestHDFS 为指定jar内的哪一个类

hdfs://hadoop100:9000 为指定hdfs路径

root 为用户名

/testHDFS/java/abc/dfs 为调用方法后需要创建的目录路径

总结:

熟能生巧,加油!!!

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值