问题:
在局域网内配置hadoop,只要在/etc/hosts中配置各个节点的局域网地址之后,启动hadoop,name节点NameNode,data节点的DataNode都能正常启动,但是换成阿里云服务器或者腾讯云服务器的时候只能在/etc/hosts配置各个节点的公网ip地址,那么如此以来name节点的NameNode启动不了,data节点的DataNode也启动不了,那么如果都换成内部地址,显然DataNode是启动不了的。
解决方案:
在master节点
vim /etc/hosts
在slave1节点
关闭hadoop
./sbin/stop-all.sh
关格式化master节点
./bin/hdfs namenode -format
启动hadoop
./sbin/start-all.sh
在master节点jps
在slave1节点jps