三件事。ssh\jdk\hadoop
jdk最简单,别忘了在hadoop-env.sh下更改java_home。
ssh最考验新手,我现在仍然不能解决,像网上说的那样,把公钥放在各个节点的自建hadoop账户上,感觉hadoop执行时连接的是节点的root用户。
hadoop的配置文件都在conf下,有3+2个;还要更改/etc/hosts/下的解析地址。除此之外,我在格式化时看到host是127.0.0.1,就把/etc/hostname改成了namenode对应的192.168.134.130。
中间我使用了ftp来获得jdk\hadoop安装包以及配置文件的共享。其实用ssh也行。FTP使用时,先在~账户下建立share目录,我在每个下都建了,然后Get直接点文件就行 这样它会同步到本地的同样的文件夹下。我只能做到这点。
很多时候你更改了没有反应可能都是因为没有重启。
没有像其他人那样把出现的问题贴出来,然后附带解决办法。下次注意收集问题。