reduce个数是可以根据集群和项目具体情况设置的,新接口中用job.setNumReduceTasks(n);即可设置,但前几天用eclipse调试mapreduce程序时发现无论设置reduce个数是多少,运行时仍然只有一个reduce,输出目录里也只有一个输出文件part-r-00000。
看运行日志中启动的是LocalJobRunner, 网上查询得知hadoop有本地、伪分布、完全分布三种模式,LocalJobRunner是运行的本地模式,所以只能有一个reduce,但我明明配置了集群!
接下来查看源代码看看能不能找出启动