1.查看 HBase 的 MapReduce 任务的执行
bin/hbase mapredcp
2
.环境变量的导入
(
1
)执行环境变量的导入(临时生效,在命令行执行下述操作)
$ export HBASE_HOME=/opt/module/hbase
$ export HADOOP_HOME=/opt/module/hadoop-3.2.2
$ export HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase mapredcp`
(
2
)永久生效:在
/etc/profile
配置
export HBASE_HOME=/opt/module/hbase
export HADOOP_HOME=/opt/module/hadoop-3.2.2
并在
hadoop-env.sh
中配置:(注意:在
for
循环之后配)
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/opt/module/hbase/lib/*
3
.运行官方的
MapReduce
任务
--
案例一:统计
Student
表中有多少行数据
$ /opt/module/hadoop-3.2.2/bin/yarn jar lib/hbase-mapreduce-2.3.5.jar
rowcounter student
--
案例二:使用
MapReduce
将本地数据导入到
HBase
1
)在本地创建一个
tsv
格式的文件:
fruit.tsv
1001 Apple Red
1002 Pear Yellow
1003 Pineapple Yellow
2
)创建
Hbase
表
Hbase(main):001:0> create 'fruit','info'
3
)在
HDFS
中创建
input_fruit
文件夹并上传
fruit.tsv
文件
$ /opt/module/hadoop-3.2.2/bin/hdfs dfs -mkdir /input_fruit/
$ /opt/module/hadoop-3.2.2/bin/hdfs dfs -put fruit.tsv
/input_fruit/
4
)执行
MapReduce
到
HBase
的
fruit
表中
$ /opt/module/hadoop-3.2.2/bin/yarn jar lib/hbase-mapreduce-2.3.5.jar
importtsv \
-Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:color fruit \
hdfs://hadoop102:9000/input_fruit
5
)使用
scan
命令查看导入后的结果
Hbase(main):001:0> scan ‘fruit’
Hbase <===> MapReduce操作
HBase学习之路 (五)MapReduce操作Hbase - 扎心了,老铁 - 博客园