1.以dashuju为用户名,登陆到linux,因为我的hadoop是装在dashuju用户的目录下的。然后新建一个map/Reduce工程。
2.新建一个类文件,然后在类文件中编写代码。
3.编辑好代码之后,要运行前,必须先配置参数。点击运行按钮,会出来下拉菜单。但后点击,Run as Dialog。对里面的
java Application中的相应工程进行配置,。主要配置是Arguments种的Program arguments.这个选项就是
主函数的main(String []args),即指定输入和输出目录。一定要注意的是,这里首先使用绝对路劲
hdfs://h1:9000/user/dashuju/in2,一开始我把h1写成了IP地址、,实验表明这样不行。因为我在hadoop中的
hdfs.site.xml,等等那几个配置文件中都写成了h1而不是IP地址。所以要一直。
其次就是,要运行程序之前。输出目录一定不能存在。否则运行不了。
在配置两个输入路径的时候,中间要有一个空格。
4.程序运行的时候,第一行会给出一个什么配置警告。实验证明。这个警告是无所谓的。可以忽略。而程序运行完也没有什么
done或者完成的提示,还害我傻傻的等了那么久。