集成Hadoop和Hypertable
Step 1
安装hadoop
Step 2
在保存Hyperspace根目录树的分区上开启extended attributes.
Hyperspace默认和hypertable安装在同一个分区.除非显示指定安装路径.
在Linux上开启extended attributes,需要在/etc/fstab文件的相应文件系统描述行上添加user_xattr属性.
/dev/hda3 /home ext3 defaults, user_xattr 1 2
remount分区:
$mount -o remount /home
Step 3
在HDFS上创建hypertable目录,并且使之可写:
hadoop fs -mkdir /hypertable
hadoop fs -chmod 777 /hypertable
Step 4
编辑conf/hypertable.cfg. 更改如下属性以指向Hadoop文件系统:
HdfsBroker.fs.default.name=hdfs://172.16.1.1:9000
更改如下两个属性以指定Hypertable Master和Hyperspace:
Hyperspace.Master.Host=172.16.1.1
Hypertable.Master.Host=172.16.1.1
Step 5
启动Master和Hyperspace
ssh 172.16.1.1 ~/hypertable/bin/start-master.sh hadoop
Step 6
启动Range Server. 在conf/slaves中添加运行range server的机器ip(机器名):
cat conf/slaves
172.16.1.2
172.16.1.3
172.16.1.4
slaves文件将会通过rsync被分发到所有机器。之后,可以通过调用如下命令来启动所有range server:
./bin/slaves.sh ~/hypertable/bin/start-range-server.sh hadoop
之后,你可以运行~/hypertable/bin/hypertable HQL命令解释器.
Stopping Hypertable
执行如下命令来关闭所有server:
~/hypertable/bin/kill-servers.sh
./bin/slaves.sh ~/hypertable/bin/kill-servers.sh