Hadoop Streaming 获取mapreduce_map_input_file遇到的版本问题

1.Hadoop Streaming,可以在任务中获取hadoop设置的环境变量,

  例如用awk写的map可以这样获取:filename = ENVIRON["mapreduce_map_input_file"]

2.可是在不同的Hadoop集群提交作业的时候却遇到了版本的问题,

   在0.21.0中,使用mapreduce_map_input_file可以取到作业输入文件名

   在1.0.3中,必须使用map_input_file才可以取到作业输入文件名

3.查询网络资源,说是hadoop新旧api的问题,

  即新api使用mapreduce_map_input_file这个环境变量能够获取

  旧的api必须使用map_input_file才能获取

4.hadoop分支:

  hadoop 0.21.0与1.0.3不属于一个分支,1.0.3是从0.20.1分支中发展而来的,


需要进一步验证,可以阅读下: hadoop-0.21.0-streaming.jar 与 hadoop-streaming-1.0.3.jar能够看出其中的端倪

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,以下是搭建单机版Hadoop和使用MapReduce解决姓名分析问题的步骤: 1. 下载Hadoop 在官网下载Hadoop安装包,并解压到本地目录下。 2. 配置Hadoop 打开Hadoop配置文件`hadoop-env.sh`,将JAVA_HOME设置为JDK的安装路径。 接着,打开`core-site.xml`配置文件,添加以下内容: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 然后,打开`hdfs-site.xml`配置文件,添加以下内容: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 最后,将`mapred-site.xml.template`文件复制为`mapred-site.xml`,并添加以下内容: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 3. 启动Hadoop 在命令行中进入Hadoop目录下的`bin`文件夹,输入以下命令启动Hadoop: ```bash $ ./start-all.sh ``` 这个命令会启动Hadoop的所有服务。 4. 准备数据 在Hadoop的`input`目录下,创建一个`data.txt`文件,输入以下数据: ``` Tom Smith John Doe Jane Smith ``` 5. 编写MapReduce程序 创建一个Java项目,添加Hadoop的依赖库,并编写以下代码: ```java import java.io.IOException; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; public class NameMapper extends Mapper<Object, Text, Text, Text> { private Text name = new Text(); private Text firstLetter = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException { String[] parts = value.toString().split(" "); name.set(parts[0] + " " + parts[1]); firstLetter.set(parts[0].substring(0, 1)); context.write(firstLetter, name); } } ``` 这段代码实现了将输入的姓名按照首字母进行分组的功能。 6. 配置MapReduce 打开`run.sh`文件,输入以下命令: ```bash #!/bin/bash hadoop fs -rm -r /output mkdir output hadoop jar /path/to/hadoop-streaming.jar \ -input /input/data.txt \ -output /output \ -mapper "java -classpath /path/to/project/bin NameMapper" \ -reducer "java -classpath /path/to/project/bin NameReducer" \ -file /path/to/project/bin/NameMapper.class \ -file /path/to/project/bin/NameReducer.class ``` 这个命令会启动一个MapReduce作业,将输入的姓名按照首字母进行分组。其中,`/path/to/hadoop-streaming.jar`是Hadoopstreaming jar包的路径,`/path/to/project`是Java项目所在的路径。 7. 查看结果 在命令行中输入以下命令查看MapReduce作业的执行结果: ```bash $ hadoop fs -cat /output/part-00000 ``` 这个命令会输出如下结果: ``` J Jane Smith J John Doe T Tom Smith ``` 这个结果说明,输入的三个姓名已经按照首字母进行了分组。 以上就是使用Hadoop单机版和MapReduce解决姓名分析问题的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值