1.端口打不开,之前能打开,现在不能。
重新格式化hdfs
命令如下
cd ~
hdfs namenode -format
2.启动集群后,输入jps命令,主节点正常,从节点没有显示相应进程
没有配置,或者是配置错了slaves/workers文件
特别注意:hadoop-2.x使用的时slaves文件
hadoop-3.x使用的是workers文件
vi /home/macanon/hadoop-3.3.4/etc/hadoop/workers
slave1
slave2
3.查看端口号时,发现有些端口开放给了0.0.0.0,而非本机IP
检查相应端口所在的配置文件,检查配置信息是否正确。
eg:
<name>名字</name>//检查名字是否正确
<value>主机名:8088</value>//检查主机名是否正确
修改后,重启集群,再次查看端口开放情况
stop-all.sh
start-all.sh
netstat -ntlp
4.50070端口无法打开
hadoop-2.x默认端口是50070
hadoop-3.x默认端口为98705
-------------------------------分界线 2023/5/17 0:18编辑--------------------------------------------------------
5.编写java文件,导入了hadoop依赖的jar包时,编译器警告提示:无法识别
查看你的项目环境的jdk版本跟Hadoop版本是否对应
hadoop2.X jdk1.7
hadoop3.X jdk1.8
6.使用mapreduce时,提交作业却迟迟没有下一步
检查你当前的虚拟机主节点(master)的配置:内存、处理器。配置过低会导致mapreduce跑不动