首先遵守原则
-1. 三台机器的防⽕墙必须是关闭的.
-2. 确保三台机器的⽹络配置畅通(NAT模式,静态IP,主机名的配置)
-3. 确保/etc/hosts⽂件配置了ip和hostname的映射关系
-4. 确保配置了三台机器的免密登陆认证(克隆会更加⽅便)
-5. 确保所有机器时间同步
-6. jdk和hadoop的环境变量配置
如果报错:
1. 格式化集群时,报错原因
- 当前⽤户使⽤不当
- /etc/hosts⾥的映射关系填写错误
- 免密登录认证异常
- jdk环境变量配置错误
- 防⽕墙没有关闭
2. namenode进程没有启动的原因:
- 当前⽤户使⽤不当
- 重新格式化时,忘记删除${hadoop.tmp.dir}⽬录下的内容
- ⽹络震荡,造成edit⽇志⽂件的事务ID序号不连续
3. datanode出现问题的原因
- /etc/hosts⾥的映射关系填写错误
- 免密登录异常
- 重新格式化时,忘记删除${hadoop.tmp.dir}⽬录下的内容,造成
datanode的唯⼀标识符不在新集群中。
4. 上述问题暴⼒解决办法:重新格式化
如果想重新格式化,那么需要先删除每台机器上的${hadoop.tmp.dir}指定路
径下的所有内容,然后再格式化:最好也把logs⽬录下的内容也清空,因为⽇志内容已
经是前⼀个废弃集群的⽇志信息了,留着也⽆⽤。
搭建hadoop集群的hdfs分布式文件系统报错解决
最新推荐文章于 2024-04-19 11:14:22 发布