flume 1.9.0 把kafka数据sink 到 hive

本文详细介绍了如何使用Flume 1.9.0将Kafka数据有效迁移至Hive。首先,讨论了Hive建表的特定要求,包括必须使用分桶、ORC存储格式以及开启事务。接着,逐步指导读者配置Flume的conf文件、添加必要的依赖包,并在Flume环境中执行命令。最终,通过在Hive中查询验证数据已经成功导入。
摘要由CSDN通过智能技术生成

创建hive表

CREATE TABLE IF NOT EXISTS  user (userid string,sex string) PARTITIONED BY (dt string) clustered by (sex) into 2 buckets  row format delimited fields terminated by ',' stored as orc tblproperties  ('transactional'='true');

hive建表要求

1.必须要分桶
2. 存储格式必须orc
3. 必须开启事务

hive 配置要求

hive> set hive.support.concurrency=true;
hive> set hive.txn.manager=org.apache
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值