**大数据原理问题总结**
1.多次对namenode进行格式化导致节点无法启动的解决
多次格式化namenode造成了namenode和datanode的clusterID不一致。每次格式化时,namenode会更新clusterID,但是datanode只会在首次格式化时确定,因此就造成不一致现象。
2.在linux中,当你在命令行输入:hadoop
结果:hadoop:未找到命令
问题原因:没有将hadoop命令添加至执行路径
3.拒接连接问题
在/user/local/hadoop 下输入 ./bin/hdfs dfs -mkdir -p /user/hadoop
会出现拒接连接问题
4.很多时候都会遇到权限不足的问题,只要在命令前+sudo,或者添加命令sudo !!即可。还有部分是需切换root用户:chmod u+w /etc/sudoers
5.在配置集群时,修改/usr/local/Hadoop/etc/hadoop目录下的配置文件,workers 、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml共5个文件。workers将原本的localhost删除添加hadoop02、hadoop03。core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml将Master改为hadoop01。三个主机修改这五个文件的配置保持一致!不要将hadoop01随机改动。
6.
7.在集群搭建完成后,输入jps得到的结果是好的,还是要打开http://192.168.56.101:50070/确认网站是否能够打开。