1. ssh localhost: 不能登陆:将错误提示中的文件全部删除。原因:登陆过远程主机
2. 问题: 伪分布式datanode启动不了:在datanode的log日志文件出现以下错误提示:
ERROR org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Error getting localhost name. Using 'localhost'...java.net.UnknownHostException: localhost: slave01: Name or service not known
其中 在hdfs-site.xm中的配置是dfs.name.dir是/usr/local/hadoop/hdfs/name. dfs.data.dir是/usr/local/hadoop/hdfs/data
理解知识:
对于第一次使用HDFS,在启动NameNode时,需要先执行-format命令,然后才能正常启动NameNode节点的服务。
在NameNode节点上,有两个最重要的路径,分别被用来存储元数据信息和操作日志,而这两个路径来自于配置文件,它们对应的属性分别是dfs.name.dir和dfs.name.edits.dir,同时,它们默认的路径均是/tmp/hadoop/dfs/name
解决方法:伪分布式下datanode无法启动问题 修改id http://blog.sina.com.cn/s/blog_76fbd24d01017qmc.html