本人出现这句话的来源是:
在hadoop装分布式操作时(hadoop102,103,104),由于配置ssh免密登录时,三台机器用的不是相同用户名,导致在start-dfs.sh时,hadoop102连不上其它机器,还自己不主动结束,就ctal+c强行结束;
也不知道为什么在hadoop103和104已经启动了datanode,为了省事 直接适用了kill -9 12610 把datanode给杀死了;
在104上适用jps,正常显示,在103上就一直出现这句话,重启机器也没用。
解决办法:
1.找到进程号jps
2.ps -ef|grep pid 是否存在
3.假如不存在,我们可以去该/tmp/hsperfdata_用户名(这个是指执行java进程的用户) 去删除。
4.假如存在,当前用户查看就是process information unavailable ,则去切换用户去查看。
原文链接:https://blog.csdn.net/xjp8587/article/details/80549409
具体这个方法什么意思,我这个小白也不太懂,这个出毛病的pid是12610,按照2这个命令,找到了我的这个出毛病它是在我laybon用户名下操作的,然后我切换到我这个用户名下,去jps查看,发现没有12610这个有毛病的进程了,再切回root之后,也没有这个进程了。
本人的情况就是这样,也不知道为什么,稀奇古怪,希望本人的经验能对其它小白碰巧有用。