参考:
简书——使用importtsv导入CSV数据到HBase
用importtsv处理,可以快速、批量导入数据,测试一下导入一百五十多万条的数据,一共只用了十几秒,非常快。
缺点非常明显,这个文件要求是结构化的,也就是列要对齐,这个其实就丧失了NOSQL的特征,但是我只是做一下测试,其实可以做到结构化数据,所以用这个工具非常有效。
步骤
数据文件的结构大概是这样的
一个ID对应一个位置,包括R Lat Lon,对应三个能段的粒子通量,flux1 flux2 flux3
- 数据文件上传到hdfs
./hdfs dfs -put ~/Desktop/EncodeData/EncodeData_part1.dat /EncodeData
(桌面上Data文件夹下的Data_part1.dat文档上传到hdfs的/Data文件夹)
- 在HBase shell里创建表
hbase > create 'Data','coid','Dcode','Loc','flux'
- 利用importtsv命令把数据加载到hbase中
importtsv命令的默认分隔符是制表键 \t,我的数据的分隔符也是,所以不需要指明分隔符。
在hbase/bin目录下执行
.\hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=HBASE_ROW_KEY,coid:latloncode,Dcode:latcode,Dcode:linecode,Dcode:loncode,Loc:R,Loc:Lat,Loc:Lon,flux:flux1,flux:flux2,flux:flux3 Data /EncodeData/EncodeData.dat