1.环境配置
a. 配置$HADOOP_HOME下的conf/hadoop-env.sh文件,修改其中的HADOOP_CLASSPATH为如下
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/$HBASE_HOME/hbase-0.90.6.jar:/$HBASE_HOME/hbase-0.90.6-
tests.jar:/$HBASE_HOME/conf:/$HBASE_HOME/lib/guava-r06.jar:/$HBASE_HOME/lib/zookeeper-3.3.5.jar
2.配置$HBASE_HOME下的conf/hbase-env.sh文件,修改其中的HBASE_CLASSPATH为如下
export HBASE_CLASSPATH=$HBASE_CLASSPATH:/$HADOOP_HOME/conf
2. 测试
顺序写,单线程,hbase org.apache.hadoop.hbase.PerformanceEvaluation sequentialWrite 1
顺序度,单线程,hbase org.apache.hadoop.hbase.PerformanceEvaluation
随机写,单线程,hbase org.apache.hadoop.hbase.PerformanceEvaluation randomWrite 1
随机读,单线程,hbase org.apache.hadoop.hbase.PerformanceEvaluation randomRead 1
多个线程会启动一个mapreduce作业执行.
3.Bulk Load测试
a.示例文件为/data0/nuoline/hbaseload/hbase_test
rk1 2 row1 test
rk2 4 row2 test
rk3 6 row3 test
rk4 8 row4 test
rk5 10 row5 test
b.在hbase中创建表tt
create 'tt','f1'
c. 在$HADOOP_HOME下执行bin/hadoop jar /$HBASE_HOME/hbase-0.90.6.jar