1. 注意reduce(IntWritable key, [color=red]Iterable[/color]<Text> values, Context context)函数,不是Iterator(旧版的hadoop)
2.每次mapper, context(new IntWritable(center),new Text(""));的时候,传送给reducer 的new IntWritable(center), 虽然center值相同,但是new 出来的IntWritable(center)的对象是[color=red]不同的[/color], 参照我的AssignPointsToCenterMapper做法写一个intWritableFactoryMap
3.要madreduce, value 的类必须implements Writable借口,实现 readFields(), write(). [color=red]readFields()的写法参照write(),write是自己想怎么存就怎么存[/color](主要是一个存的顺序问题和读的顺序问题),参照我的SimilarityCell 和SimilarityCellMapWritable
4.好像maper的[color=red]value[/color]输出和reducer的value输出必须是同一class类型,如Text,不能mapper是IntWritable, reducer 是Text,别人虽然说setMapOutPutValueClass()可以,但我试了不行,会抛出error.
5.Mapper 和 Reducer可以通过override [color=red]setup()函数进行一些初始化工作[/color],如读入centers
6.可以写一个类专门存其他类要用到的变量名,参照ClusterParameters
===========================================================
1.sequenceFile的读和写,参照ClusterUtil里面的函数
2.Text对象里面的字符串可以通过Text.toString()获得
2.每次mapper, context(new IntWritable(center),new Text(""));的时候,传送给reducer 的new IntWritable(center), 虽然center值相同,但是new 出来的IntWritable(center)的对象是[color=red]不同的[/color], 参照我的AssignPointsToCenterMapper做法写一个intWritableFactoryMap
3.要madreduce, value 的类必须implements Writable借口,实现 readFields(), write(). [color=red]readFields()的写法参照write(),write是自己想怎么存就怎么存[/color](主要是一个存的顺序问题和读的顺序问题),参照我的SimilarityCell 和SimilarityCellMapWritable
4.好像maper的[color=red]value[/color]输出和reducer的value输出必须是同一class类型,如Text,不能mapper是IntWritable, reducer 是Text,别人虽然说setMapOutPutValueClass()可以,但我试了不行,会抛出error.
5.Mapper 和 Reducer可以通过override [color=red]setup()函数进行一些初始化工作[/color],如读入centers
6.可以写一个类专门存其他类要用到的变量名,参照ClusterParameters
===========================================================
1.sequenceFile的读和写,参照ClusterUtil里面的函数
2.Text对象里面的字符串可以通过Text.toString()获得