昨晚搭hadoop搭了一晚上都没成功,很是烦躁,错误千奇百怪。
今天早上过来跟学长请教,他说启动过程中卡在那儿时直接输入yes,因为是第一次启动,所以需要输入yes;但是一路yes下去,最后还是不行。错误提示:权限不够及logs out。
后来学长自己研究了一会,说是因为hadoop数据文件夹tmp是用root创建的,hadoop用户不能写入,所以出现权限不够的问题。
于是我对所有节点的tmp文件夹用
$chown -R hadoop:hadoop /home/hadoop/hadoop/tmp
命令,将tmp所有档案与子目录的拥有者皆设为hadoop 群体的使用者hadoop。
然后重启,启动hadoop:$start-dfs.sh,又出现no namenode to stop错误,上网查询,得知这个问题是由namenode没有启动起来引起的,为什么no namenode to stop,可能之前的一些数据对namenode有影响,需要执行:
$ hadoop namenode -format,然后$stop-dfs.sh,$start-dfs.sh启动hadoop。
这次启动之后显示看着依然有很多警告,依然有权限不允许,但是使用
$ jps,$ hdfs dfsadmin –report,显示出hadoop已经启动。