05 flume将数据导入到Hive

我们已经了解了使用flume监听端口以及文件内容,本节将展示使用flume导入数据到hbase。

1 系统、软件以及前提约束

2 操作

  • 1 使用xshell登录到192.168.100.200
  • 2 启动hadoop
cd /root/hadoop-2.5.2/sbin
./start-all.sh
  • 3 启动metastore
    cd /root/apache-hive-0.14.0-bin/bin
    ./hive --service metastore
  • 4 修改flume-conf.properties
a1.sources=r1
a1.channels=c1
a1.sinks=s1

a1.sources.r1.type=netcat
a1.sources.r1.bind=192.168.100.200
a1.sources.r1.port=44444

a1.sinks.s1.type=hive
a1.sinks.s1.hive.metastore=thrift://192.168.100.200:9083
a1.sinks.s1.hive.database=flume
a1.sinks.s1.hive.table=t_user
a1.sinks.s1.serializer=DELIMITED
a1.sinks.s1.serializer.delimiter="\t"
a1.sinks.s1.serializer.serdeSeparator='\t'
a1.sinks.s1.serializer.fieldnames=user_id,user_name,age

a1.channels.c1.type=memory
a1.channels.c1.capacity=1000
a1.channels.c1.transactionCapacity=100

a1.sources.r1.channels=c1
a1.sinks.s1.channel=c1
  • 5 拷贝jar包
cp /root/apache-hive-0.14.0-bin/hcatalog/share/hcatalog/* /root/apache-flume-1.8.0-bin/lib/
  • 6 在hive中创建数据库和表
cd /root/apache-hive-0.14.0-bin/bin
./hive
>create database flume;
>create table t_user(user_id int,user_name string, age int) clustered by(user_id) into 2 buckets stored as orc tblproperties("transactional"='true');
  • 5 通过nc【如果没有需要通过yum安装nc】向192.168.100.200的44444端口写入符合要求的数据
    nc 192.168.100.200 44444
  • 6 查看hive中表的数据
cd /root/apache-hive-0.14.0-bin/bin
./hive
>select * from flume.t_user;

至此,我们完成了flume导入数据到hive。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值