在测试spark写入到HBase数据库的时候,碰到了卡壳的情况。查看状态,一直停留在connect阶段,跳不过去。。
于是只能一步一步查,终于发现当在Master上启动start-hbase的时候,而子节点利用JPS进程,却没有发现HRegionServer的进程存在。
于是就查原因,果然是各个服务器的系统时间不一样,导致的。节点机的时间和master的时间差距大于30000ms,就是30秒时无法启动服务。之前hadoop没有遇到过这个问题,所以hbase存在系统时间同步的问题,而且误差要再30s以内。
于是将各个系统时间设置为服务器集群的同步,果然顺利搞定。