出现错误
一定要学会查看日志文件,查看logs/下的对应进程的.log后缀的文件
【框架名】【用户名】【进程名】【主机名】【文件后缀】
hadoop-beifeng-datanode-bigdata-04.log
查看最新的日志记录,最新时间
pid进程号(注意权限问题)
系统进程每次启动之后会有一个pid编号,每次启动会随机生成
多个用户启动进程,会记录不同用户的pid进程编号
建议不要多个用户混用
如果出现pid进程编号多个的话,直接删除rm /tmp/*.pid
再用同一个用户去启动
一、误用root用户启动namenode、datanode造成权限错乱
解决方法:
=============================== 方法一 ========================================
1、先把logs目录下的所有root用户权限的日志文件删除掉
2、cd到/tmp目录,删除root用户的pid文件
3、切换到root用户,然后jps查看,如果namenode和datanode进程还在,使用killall java命令终止掉
4、cd到/opt/modules/hadoop-2.7.3/data/tmp/dfs/name目录
- 然后把所有root用户的文件删除掉,使用rm -rf 命令
5、cd到/opt/modules/hadoop-2.7.3/data/tmp/dfs/data目录
- 删除data目录下所有的root权限文件,注意这里的目录嵌套比较多
=============================== 方法二 ========================================
1、如果方法一操作完之后,还是无法启动namenode和datanode,那么只能格式化namenode了 -----命令: bin/hdfs namenode -format
2、删除linux目录下 /tmp目录中root用户的pid文件
3、此时可以启动namenode,但是datanode无法启动,原因是格式化namenode后DataNode的clusterID与NameNode不同,因此还需要修改 hadoop目录下 data/tmp/dfs/data/current/... 中的VERSION 文件
例:
clusterID
[dfs/name/current]:namenode
clusterID=CID-6172ab83-9c0a-4da0-8d14-d5e14a2c57cd
[dfs/data/current]:datanode
clusterID=CID-6172ab83-9c0a-4da0-8d14-d5e14a2c57cd
如下:
二:打不开web界面(HDFS,YARN)解决办法
--------------------------------------------------------------------------------------------
1.在虚拟机里执行jps,检查namenode,datanode,resourcemanager,nodemanager这些进程服务
是否启动
2.检查windows下的hosts文件,是否有配置网络映射
-》例子:192.168.109.31 bd24-server1.ibeifeng.com
-》hosts文件位置:C:\Windows\System32\drivers\etc\hosts
3.检查虚拟机防火墙是否关闭 sudo service iptables status
三、beeline连接HIVE默认登入使用anonymous用户权限不够
https://blog.csdn.net/Ntozot/article/details/83031124
https://blog.csdn.net/yunyexiangfeng/article/details/60867563