1、jps命令的位置在哪
2、对应的进程的标识文件在哪
/tmp/hsperfdata_进程用户名称
3、root用户能看所有用户的jps结果,普通用户只能看自己的
4、–process information unavailable
jps遇到这种情况时,有可能是真,也可能是假。
此时用ps -ef
查看进程若 ps -ef | grep 进程名
结果有进程那么进程是ok的。
在生产环境中,部署hadoop的hdfs时会用hdfs用户,root用户会sudo权限的用户去获取,可能会人为的或者linux系统看来是占内存最大的 ,触发了oom,自动给你kill掉。
5、pid文件 集群进程启动和停止要的文件
Linux在tmp目录, 定期删除一些文件和文件夹 30天周期
集群的pid文件在集群启动和停止时都需用到,若pid文件删除,可能会导致旧节点停不掉,集群重启时,节点重复启动会导致节点紊乱,其实用的还是旧的节点
解决方案:
1、
在其他目录下面创建自己的一个文件夹:
mkdir -p /data/tmp
chmod -R 777 /data/tmp
修改hadoop-env.sh 中的HADOOP_PID_DIR=/data/tmp
2、
修改linux定时删除tmp命令的配置,是pid文件不受规则的影响。