1.启动Hadoop集群的时候还是报错
Error: JAVA_HOME is not set and could not be found. 的错误,那么,则说明之前设置 JAVA_HOME 环境变量那边就没设置好,请到hadoop的安装目录修改配置文件“/usr/local/hadoop/etc/hadoop/hadoop-env.sh”,在里面找到“export JAVA_HOME=${JAVA_HOME}”这行,然后,把它修改成JAVA安装路径的具体地址
2.jps来判断是否成功启动
可以通过命令 jps 来判断是否成功启动,
(1)若只出现一个jps,那可能是因为没有启动hadoop
输入一下代码启动hadoop
./sbin/start-dfs.sh
若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode”(如果 SecondaryNameNode 没有启动,请运行 sbin/stop-dfs.sh 关闭进程,然后再次尝试启动尝试)。
(2)jps没有DataNode
可尝试以下代码来启动DataNode
cd /usr/local/hadoop
./sbin/stop-dfs.sh # 关闭
rm -r ./tmp # 删除 tmp 文件,注意这会删除 HDFS 中原有的所有数据
./bin/hdfs namenode -format # 重新格式化 NameNode
./sbin/start-dfs.sh # 重启
3.ping不通
如上图虚拟机ping不通主机
方法一:关闭防火墙(注:我关闭防火墙依然ping不通,方法一不行)
方法二:在命令提示符中ping虚拟机
如上图可知,主机和虚拟机ping通了。
4.虚拟机蓝屏
针对虚拟机蓝屏,我上网查了很多方法,问了老师,都没有得到有效的解决。最后重新新建了一台新的虚拟机。
警示:要经常给虚拟机做备份,这样就不怕虚拟机蓝屏了
5.文件上传报错
如上图所示,想要上传HbaseAPI-jar-with-dependencies.jar,报错显示已有这个文件
我们需要先删除原有的HbaseAPI-jar-with-dependencies.jar,再进行上传
通过ls就可以看到最新上传的文件了
6.Cannot resolve symbol *** 解决办法
7.IDEA 解决Project SDK is not defined
找到安装的jdk包地址
8.在集群的搭建,出现如下问题或者在给hadoop03上复制文件时,hadoop03总会出现异常,自动异常退出。
给每个虚拟机分配了1G内存,之前是2G。