Wrong FS: hdfs://hadoop20:9000/word.txt, expected: file:///

今天搭建了一个hadoop2.0(yarn集群平台),首先在上面测试了一个FileSystem实例程序,代码如下:

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}

然而eclipse中程序的运行结果如下:

抛出的异常显示:代码不能识别HDFS文件系统,期望用本地文件系统(file:///),于是我将代码进行了修改:

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("file:///C:\\file.txt"));
        IOUtils.copy(fr, System.out);
    }
}

果然程序不在抛出异常,然而file:///(本地文件系统)并不是我所需要的,所以代码还需要进一步的修改:既然代码不能识别HDFS文件系统,于是我在配置文件进行指定—识别HDFS分布式文件系统,从而获得(HDFS)相应的实例对象FileSystem,而不在获得本地文件系统的实例对象FileSystem。

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://hadoop20:9000");//在配置文件conf中指定所用的文件系统---HDFS
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}

异常到此得到了解决,当然还有另一种解决方案:
将core-site.xml这个配置文件拷贝到src中:


core-site.xml中的内容如下:

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop20:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop/tmp</value>
</property>
</configuration>


当程序在执行的过程,conf就会读取core-site.xml配置文件的内容,从而识别出HDFS文件系统。


  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值