读取Hadoop分布式文件系统中的内容

先上代码:

package com.hadoop;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

import java.io.ByteArrayOutputStream;
import java.io.IOException;

/**
 * @Author Administrator
 * @Date 2018/5/27 14:31
 */
public class HDFSDemo {

    public static void main(String[] args) throws IOException {
        Configuration conf=new Configuration();
        FileSystem fileSystem=FileSystem.get(conf);
        Path path=new Path("hdfs://192.168.244.3:9000/user/zhang/hadoop/test.txt");
        FSDataInputStream fsDataInputStream=fileSystem.open(path);
        ByteArrayOutputStream byteArrayOutputStream=new ByteArrayOutputStream();
        IOUtils.copyBytes(fsDataInputStream,byteArrayOutputStream,1024);
        fsDataInputStream.close();
        System.out.println(new String(byteArrayOutputStream.toByteArray()));
    }
}

注意path中的参数,我这里用的是IP+端口的方式。

还有就是要在资源文件中加上core-site.xml文件。如果不加,会报:

Exception in thread "main" java.lang.IllegalArgumentException: Wrong FS: hdfs://192.168.244.3:9000/user/zhang/hadoop/test.txt, expected: file:///

这样的错误。



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值