[b]Hadoop 0.20.2[/b]
以前配置好能运行的集群,今天不记得改了点什么,跑不起来了,总是报下面的异常:
[b]java.io.IOException: File /tmp/hadoop-wangdeyu/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1[/b]
也看了下网上其他人的一些解决办法,试了式,机器重启了几次、format了好几次、/etc/hosts、/etc/hostname 改了几次(虚拟机里跑的Ubuntu,复制的,所以名字一样),不好使。
最后貌似进行了下面几步给解决了(还是有点莫名其妙,昨天还好用来着...):
1.[b]core-site.xml[/b]
fs.default.name 的value最好还是配置成IP地址
2.[b]mapred-site.xml[/b]
mapred.job.tracker配置成了IP地址
3. 最后启动(不用start-all.sh),而是分两步:
以前配置好能运行的集群,今天不记得改了点什么,跑不起来了,总是报下面的异常:
[b]java.io.IOException: File /tmp/hadoop-wangdeyu/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1[/b]
也看了下网上其他人的一些解决办法,试了式,机器重启了几次、format了好几次、/etc/hosts、/etc/hostname 改了几次(虚拟机里跑的Ubuntu,复制的,所以名字一样),不好使。
最后貌似进行了下面几步给解决了(还是有点莫名其妙,昨天还好用来着...):
1.[b]core-site.xml[/b]
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.0.2:9000/</value>
</property>
fs.default.name 的value最好还是配置成IP地址
2.[b]mapred-site.xml[/b]
<property>
<name>mapred.job.tracker</name>
<value>192.168.0.2:9001</value>
</property>
mapred.job.tracker配置成了IP地址
3. 最后启动(不用start-all.sh),而是分两步:
bin/start-dfs.sh
bin/start-mapred.sh