第一次写博,就是记录一下过去2个星期里安装配置hadoop 2.6.0集群的一把辛酸血泪史。同时也是深入实践这个大数据基础工具的好例子。
到今天,还有container-lauch报错的问题,google的2天,依然没有解决。先冷一冷。
终于解决了这个奇特的container-launch exception的错误。是在mapredu-site.xml里面的一个配置的格式写错了。奇葩的map和reduce opt-memory的值的格式是"-Xmx520M"。网络上下载的那个配置文件模板里面居然没有这个横线“-”,于是每次开始跑map job的时候,container无法启动,因为默认的启动jvm内存就根本没有设定。
奇葩的是,在整个hadoop的log里面没办法找到任何信息来发现这个错误。最终还是我吧Apache的标准配置文档拿下来一行一行的读的时候发现的。晕死了。
在这个问题解决以后,datanode的log开始报heap size的错误。再次看配置文件,发现map-reduce的jvm内存给小了,调整了以后。终于跑通了第一个mapreduce任务--MaxTemperature.
在这里欢呼一下。