最近花几天测试了HBase的搭建和数据迁移。这里把搭建情况写一下。
HBase基于Hadoop的HDFS,需要先搭建出Hadoop的管理节点namenode(master)和数据节点datanode(slave)。测试环境中,使用一台namenode和三台datanode。
首先需要对主机系统进行设置:
将每个节点的ip地址、主机名加入/etc/hosts文件中,并且注意删除127.0.0.1上对应的主机名。这是因为hbase需要在配置文件中通过主机名进行访问。如果直接使用ip地址,将会产生各种问题。
多台服务器集群最好使用NTP服务进行时间统一,防止产生数据不一致。
设置系统最大打开文件数。hadoop同时访问文件数量会很大,需要更改linux这些参数。
#vi /etc/sysctl.conf
fs.file-max = 262144
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.rmem_default = 1048576
net.core.wmem_default = 524288
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 6