问题:在没有启动zkServer的Linux上执行jar包(hadoop jar ...)访问HBase集群时,提示如下信息,没有访问独立的zk集群,而访问本地zk的2181端口,而本地却没有启动zk,故而报错。但是,如果放到启动了zk的Linux上是可以正常执行的(但是,使用的zk依然是本地的),同时,同样的代码在windows上能正常执行。
WARN zookeeper.ReadOnlyzkClient: 0x702b8b12 to localhost:2181 failed for get of /hbase/hbaseid, code = CONNECTIONLOSS, retries = 3
INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)
WARN zookeeper.ClientCnxn: Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect
java.net.ConnectException: Connection refused
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717)
at org.apache.zookeeper.ClientCnxnSocketNIO.doTransport(ClientCnxnSocketNIO.java:361)
at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1081)
原因:未能访问到zk集群
处理:让Linux客户端能访问到zk集群即可解决,这里给出三种方式解决:
方式一,修改代码:
修改Configuration cfg = HBaseConfiguration.create();为如下两行
Configuration cfg = new Configuration();
HBaseConfiguration.addHbaseResources(cfg);
注:通过添加资源的方式提供zk集群信息,同时注意修改代码的位置
方式二,添加代码:
cfg.set("hbase.zookeeper.quoru", "s73:2181,s74:2181,s75:2181")
注:通过配置对象设置zk集群的地址信息,从而使其能够访问到zk集群
方式三,复制配置文件(推荐):
将hbase-site.xml拷贝一份到${HADOOP_HOME}/etc/hadoop目录下,${HADOOP_HOME}是hadoop的安装目录
注:直接通过路径下的配置文件读取zk集群的地址信息,因为在HBase与MapReduce中也需要这么做(复制配置文件),故推荐。