Flink、Spark、Hive集成Hudi

本文详细介绍了如何将Flink、Spark和Hive分别与Hudi进行集成,包括环境配置、jar包的处理、配置文件的修改以及各组件之间的交互测试。在Flink集成Hudi中,涉及内存建表和Hive Catalog同步,而在Spark集成Hudi中,重点在于Spark SQL的使用。Hive集成Hudi则包括了外部表的创建和管理。
摘要由CSDN通过智能技术生成

环境描述:

hudi版本:0.13.1

flink版本:flink-1.15.2

spark版本:3.3.2

Hive版本:3.1.3

Hadoop版本:3.3.4

一.Flink集成Hive

1.拷贝hadoop包到Flink lib目录

hadoop-client-api-3.3.4.jar

hadoop-client-runtime-3.3.4.jar

2.下载上传flink-hive的jar包

flink-connector-hive_2.12-1.15.2.jar

flink-sql-connector-hive-3.1.3_2.12-1.15.2.jar

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Toroidals

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值