Hadoop提供的reduce函数中Iterable 接口只能遍历一次的问题

之前有童鞋问到了这样一个问题:为什么我在 reduce 阶段遍历了一次 Iterable 之后,再次遍历的时候,数据都没了呢?可能有童鞋想当然的回答:Iterable 只能单向遍历一次,就这样简单的原因。。。事实果真如此吗?

还是用代码说话:

[java]  view plain  copy
  1. package com.test;  
  2.   
  3. import java.util.ArrayList;  
  4. import java.util.Iterator;  
  5. import java.util.List;  
  6.   
  7. public class T {  
  8.   
  9.     public static void main(String[] args) {  
  10.   
  11.         // 只要实现了Iterable接口的对象都可以使用for-each循环。  
  12.         // Iterable接口只由iterator方法构成,  
  13.         // iterator()方法是java.lang.Iterable接口,被Collection继承。  
  14.         /*public interface Iterable<T> { 
  15.             Iterator<T> iterator(); 
  16.         }*/  
  17.         Iterable<String> iter = new Iterable<String>() {  
  18.             public Iterator<String> iterator() {  
  19.                 List<String> l = new ArrayList<String>();  
  20.                 l.add("aa");  
  21.                 l.add("bb");  
  22.                 l.add("cc");  
  23.                 return l.iterator();  
  24.             }  
  25.         };  
  26.         for(int count : new int[] {12}){  
  27.             for (String item : iter) {  
  28.                 System.out.println(item);  
  29.             }  
  30.             System.out.println("---------->> " + count + " END.");  
  31.         }  
  32.     }  
  33. }  

结果当然是很正常的完整无误的打印了两遍    Iterable 的值。那究竟是什么原因导致了 reduce 阶段的    Iterable 只能被遍历一次呢?

我们先看一段测试代码:

测试数据:

[java]  view plain  copy
  1. 3  
  2. 4  
  3. 50  
  4. 60  
  5. 70  
  6. 8  
  7. 9  
[java]  view plain  copy
  1. <pre name="code" class="java">import java.io.IOException;  
  2. import java.util.ArrayList;  
  3. import java.util.List;  
  4.   
  5. import org.apache.hadoop.conf.Configuration;  
  6. import org.apache.hadoop.fs.FileSystem;  
  7. import org.apache.hadoop.fs.Path;  
  8. import org.apache.hadoop.io.Text;  
  9. import org.apache.hadoop.mapreduce.Job;  
  10. import org.apache.hadoop.mapreduce.Mapper;  
  11. import org.apache.hadoop.mapreduce.Reducer;  
  12. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
  13. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
  14. import org.apache.hadoop.util.GenericOptionsParser;  
  15.   
  16. public class TestIterable {  
  17.   
  18.     public static class M1 extends Mapper<Object, Text, Text, Text> {  
  19.         private Text oKey = new Text();  
  20.         private Text oVal = new Text();  
  21.         String[] lineArr;  
  22.   
  23.         public void map(Object key, Text value, Context context) throws IOException, InterruptedException {  
  24.             lineArr = value.toString().split(" ");  
  25.             oKey.set(lineArr[0]);  
  26.             oVal.set(lineArr[1]);  
  27.             context.write(oKey, oVal);  
  28.         }  
  29.     }  
  30.   
  31.     public static class R1 extends Reducer<Text, Text, Text, Text> {  
  32.         List<String> valList = new ArrayList<String>();  
  33.         List<Text> textList = new ArrayList<Text>();  
  34.         String strAdd;  
  35.         public void reduce(Text key, Iterable<Text> values, Context context) throws IOException,  
  36.                 InterruptedException {  
  37.             valList.clear();  
  38.             textList.clear();  
  39.             strAdd = "";  
  40.             for (Text val : values) {  
  41.                 valList.add(val.toString());  
  42.                 textList.add(val);  
  43.             }  
  44.               
  45.             // 坑之 1 :为神马输出的全是最后一个值?why?  
  46.             for(Text text : textList){  
  47.                 strAdd += text.toString() + ", ";  
  48.             }  
  49.             System.out.println(key.toString() + "\t" + strAdd);  
  50.             System.out.println(".......................");  
  51.               
  52.             // 我这样干呢?对了吗?  
  53.             strAdd = "";  
  54.             for(String val : valList){  
  55.                 strAdd += val + ", ";  
  56.             }  
  57.             System.out.println(key.toString() + "\t" + strAdd);  
  58.             System.out.println("----------------------");  
  59.               
  60.             // 坑之 2 :第二次遍历的时候为什么得到的都是空?why?  
  61.             valList.clear();  
  62.             strAdd = "";  
  63.             for (Text val : values) {  
  64.                 valList.add(val.toString());  
  65.             }  
  66.             for(String val : valList){  
  67.                 strAdd += val + ", ";  
  68.             }  
  69.             System.out.println(key.toString() + "\t" + strAdd);  
  70.             System.out.println(">>>>>>>>>>>>>>>>>>>>>>");  
  71.         }  
  72.     }  
  73.   
  74.     public static void main(String[] args) throws Exception {  
  75.         Configuration conf = new Configuration();  
  76.         conf.set("mapred.job.queue.name""regular");  
  77.         String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();  
  78.         if (otherArgs.length != 2) {  
  79.             System.err.println("Usage: wordcount <in> <out>");  
  80.             System.exit(2);  
  81.         }  
  82.         System.out.println("------------------------");  
  83.         Job job = new Job(conf, "TestIterable");  
  84.         job.setJarByClass(TestIterable.class);  
  85.         job.setMapperClass(M1.class);  
  86.         job.setReducerClass(R1.class);  
  87.         job.setOutputKeyClass(Text.class);  
  88.         job.setOutputValueClass(Text.class);  
  89.         // 输入输出路径  
  90.         FileInputFormat.addInputPath(job, new Path(otherArgs[0]));  
  91.         FileSystem.get(conf).delete(new Path(otherArgs[1]), true);  
  92.         FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));  
  93.         System.exit(job.waitForCompletion(true) ? 0 : 1);  
  94.     }  
  95. }  


 

在 Eclipse 控制台中的结果如下:

[java]  view plain  copy
  1. a   9999,   
  2. .......................  
  3. a   34709,   
  4. ----------------------  
  5. a     
  6. >>>>>>>>>>>>>>>>>>>>>>  
  7. b   888,   
  8. .......................  
  9. b   50608,   
  10. ----------------------  
  11. b     
  12. >>>>>>>>>>>>>>>>>>>>>>  


关于第 1 个坑:对象重用(   objects reuse  

reduce方法的javadoc中已经说明了会出现的问题: 

The framework calls this method for each <key, (list of values)> pair in the grouped inputs. Output values must be of the same type as input values. Input keys must not be altered. The framework will reuse the key and value objects that are passed into the reduce, therefore the application should clone the objects they want to keep a copy of.

      也就是说虽然reduce方法会反复执行多次,但key和value相关的对象只有两个,reduce会反复重用这两个对象。所以如果要保存key或者value的结果,只能将其中的值取出另存或者重新clone一个对象(例如Text store = new Text(value) 或者 String a = value.toString()),而不能直接赋引用。因为引用从始至终都是指向同一个对象,你如果直接保存它们,那最后它们都指向最后一个输入记录。会影响最终计算结果而出错。 

看到这里,我想你会恍然大悟:这不是刚毕业找工作,面试官常问的问题:String 是不可变对象但为什么能相加呢?为什么字符串相加不提倡用 String,而用 StringBuilder ?如果你还不清楚这个问题怎么回答,建议你看看这篇深入理解 String, StringBuffer 与 StringBuilder 的区别http://my.oschina.net/leejun2005/blog/102377

关于第 2 个坑:http://stackoverflow.com/questions/6111248/iterate-twice-on-values

The Iterator you receive from that Iterable's iterator() method is special. The values may not all be in memory; Hadoop may be streaming them from disk. They aren't really backed by a Collection, so it's nontrivial to allow multiple iterations.


  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值