Hadoop 里面配置完全分布式运行模式,群起集群时配置 slaves 注意事项:
/opt/module/hadoop-2.7.2/etc/hadoop/slaves
[atguigu@hadoop102 hadoop]$ vi slaves
在该文件中增加如下内容:
hadoop102
hadoop103
hadoop104
注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
错误的配置:
192.168.19.102 hadoop102
192.168.19.103 hadoop103
192.168.19.104 hadoop104
这样配置的后果就是,在启动的时候每个服务器都会启动两个 DataNode 。
分析:
这个脚本是被 sbin/start-dfs.sh 调用。
[atguigu@hadoop104 hadoop-2.7.2]$ vim sbin/start-dfs.sh
[atguigu@hadoop104 hadoop-2.7.2]$
...............省略.....................#---------------------------------------------------------
# datanodes (using default slaves file)if [ -n "$HADOOP_SECURE_DN_USER" ]; then
echo \
"Attempting to start secure cluster, skipping datanodes. " \
"Run start-secure-dns.sh as root to complete startup."
else
"$HADOOP_PREFIX/sbin/hadoop-daemons.sh" \
--config "$HADOOP_CONF_DIR" \
--script "$bin/hdfs" start datanode $dataStartOpt
fi#---------------------------------------------------------
...............省略.....................
上面文件说明:在启动 datanodes 调用的是 slaves 文件。系统通过遍历 slaves 来启动 DataNode ,所以会启动两次。