Wrong FS: hdfs://hadoop20:9000/word.txt, expected: file:///---异常解决方案

今天搭建了一个hadoop2.0(yarn集群平台),首先在上面测试了一个FileSystem实例程序,代码如下:

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}

然而eclipse中程序的运行结果如下:
这里写图片描述
抛出的异常显示:代码不能识别HDFS文件系统,期望用本地文件系统(file:///),于是我将代码进行了修改:

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("file:///C:\\file.txt"));
        IOUtils.copy(fr, System.out);
    }
}
/*
运行结果:
Sometimes your plans don’t work out because God has better ones.
毅力和耐性在某种程度上将决定一个人会成为什么样的人。
 */

果然程序不在抛出异常,然而file:///(本地文件系统)并不是我所需要的,所以代码还需要进一步的修改:既然代码不能识别HDFS文件系统,于是我在配置文件进行指定—识别HDFS分布式文件系统,从而获得(HDFS)相应的实例对象FileSystem,而不在获得本地文件系统的实例对象FileSystem。

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://hadoop20:9000");//在配置文件conf中指定所用的文件系统---HDFS
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}
/*
程序执行结果:
hello   you
hello   me
 */

异常到此得到了解决,当然还有另一种解决方案:
将core-site.xml这个配置文件拷贝到src中:
这里写图片描述
core-site.xml中的内容如下:

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop20:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop/tmp</value>
</property>
</configuration>

这样当程序在执行的过程,conf就会读取core-site.xml配置文件的内容,从而识别出HDFS文件系统。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只懒得睁眼的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值