1、
问题描述:启动./hbase shell时,报异常,异常信息如下:
java.lang.RuntimeException: java.lang.UnsatisfiedLinkError: 设备上没有空间
原因分析:/dev/mapper/volgroup-lv_root 100%,空间被占用。
Size Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root 50G 50G 0 100% /
解决方法:spark日志文件(不同的环境可能会是不同的日志文件)占用过多空间,删除不需要的文件即可。
2、
问题描述:关闭hbase集群时报错,stopping hbase cat:/tmp/hbase-root-master.pid:没有那个文件或目录
原因分析:默认情况下pid文件保存在/tmp目录下,/tmp目录下的文件很容易丢失(重启后基本就会删除),在hbase关闭时,需要去对应目录找对应的pid文件,找不到对应的pid文件时会报错
解决方法:在hbase-env.sh配置文件中配置pid文件的存放路径,export HBASE_PID_DIR=/var/hadoop/pids(路劲可自己定义)
注意:以上修改之后可能还会报错,本质可能是因为在hbase-site.xml中,hbase.rootdir错写成一个不存在的hdfs的host,具体请参考问题3
3、
问题描述:进入hbase指令操作界面后,输入指令报错:ERROR: Could not initialize class org.apache.hadoop.hbase.protobuf.ProtobufUtil
原因分析:在hbase-site.xml配置文件中的hbase.rootdir错写成一个不存在的hdfs的host,如下
解决方法:修改会正确的hdfs的host
4、
问题描述:2018-08-06 18:17:42.765 INFO 13920 --- [nio-8090-exec-1] nectionManager$HConnectionImplementation : getMaster attempt 1 of 35 failed; retrying after sleep of 100, exception=com.google.protobuf.ServiceException: java.net.UnknownHostException: unknown host: hadoop01,HbaseAPI操作时,连接不到主机(hadoop01,hadoop02,hadoop03),并且代码中并没有出现主机名,而是用ip代替
原因分析:在eclipse中本地测试运行,hosts文件中没有配置hadoop01~03,主机名不正确
解决方法:在hosts文件中配置hadoop01~03的主机名和ip的映射
后续持续更新中。。。。。。