导入本地数据到 HBase和导入hdfs数据到hbase

导入本地数据到 HBase

假设有一个名为user_data.csv的CSV文件,位于本地文件系统的file://home/user/data目录中,我们希望将其导入到HBase中的user_table表中。

  1. 准备数据

    • 确保你的本地数据文件user_data.csv的格式正确,并且包含了你想要导入到user_table表中的数据。
  2. 创建HBase表

    • 在HBase中创建一个表,其结构应该与user_data.csv中的数据结构相匹配。可以使用HBase Shell或HBase客户端工具来创建表。假设已经创建了名为user_table的表,包含了适当的列族和列。
  3. 使用HBase Import工具

    • 使用HBase提供的Import工具将本地数据导入到HBase表中。

示例本地导入到hbase:

假设你的user_data.csv文件的内容如下:

user_id,name,age,email
1,Alice,30,alice@example.com
2,Bob,35,bob@example.com
3,Charlie,25,charlie@example.com
  1. 创建HBase表

假设在HBase中使用HBase Shell创建了名为user_table的表,包含了一个默认的列族cf

create 'user_table', 'cf'
  1. 使用HBase Import工具

使用HBase提供的Import工具将本地数据导入到HBase表中:

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator=, -Dimporttsv.columns="HBASE_ROW_KEY,cf:name,cf:age,cf:email" user_table file://home/user/data/user_data.csv

这个命令将user_data.csv文件中的数据导入到了名为user_table的HBase表中。-Dimporttsv.separator=, 指定了CSV文件的分隔符为逗号,-Dimporttsv.columns="HBASE_ROW_KEY,cf:name,cf:age,cf:email" 指定了列族和列的映射关
系。

导入hdfs数据到 HBase

hdfs导入到hbase示例:

  1. 使用hadoop命名上传到hdfs:使用上面那个示例的数据,将数据导入到hdfs上,默认hdfs路径为/user/hadoop,这里我们创建一个data文件夹存储数据,我们上传在这里
 hadoop fs -put /home/user/data/data.txt /user/hadoop/data
  1. 使用HBase Import工具

使用HBase提供的Import工具将本地数据导入到HBase表中:

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator=, -Dimporttsv.columns="HBASE_ROW_KEY,cf:name,cf:age,cf:email" user_table /user/hadoop/data/user_data.csv
  • 18
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Elik-hb

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值