FLINK1.12.2 使用问题记录 (持续更新)

本文记录了在使用FLINK1.12.2过程中遇到的问题,包括使用StreamExecutionEnvironment创建StreamTableEnvironment写入Hive报错、IDE中无法写入Hive、通过catalog写入Hive权限问题、源码编译问题以及JDBC扩展Oracle调用时的包冲突和数据类型转换问题,并提供了详细的解决办法。
摘要由CSDN通过智能技术生成

问题记录清单

1.使用StreamExecutionEnvironment创建StreamTableEnvironment写hive报错

2.在IDE中无法写入hive

3.flink使用catalog写入hive报错没有权限

4.flink源码编译问题

1.依赖下载失败

2.要求代码格式化

5.jdbc 扩展oracle的调用报错

1.包冲突

2.数据类型转换


 

 

1.使用StreamExecutionEnvironment创建StreamTableEnvironment写hive报错

问题描述:job在flink web界面中状态一直显示为restarting,检查job的exception报错如下图所示:

Cannot load user class:

org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer

网上没有搜到相关问题,实际上代码中并未使用到FlinkKafkaConsumer,而且flink-connector-kafka_2.11.jar已经在工程依赖中,flink集群的lib中也有该jar包。

因为代码最初是直接使用TableEnvironment实现读取kafka写入hive的,分析认为报错代码与flink的StreamExecutionEnvironment创建StreamTableEnvironment有关。报错代码如下:

原因未知,猜测与stream api和table api体系的冲突导致的。

解决办法:将checkpoint的相关设置放在StreamExecutionEnvironment中,而不是StreamTableEnvironment的config中,变更后代码如下:

2.在IDE中无法写入hive

问题描述:相同代码打包后从flink web中上传提交是可以正常写入hive的,但是在ide中直接运行无法写入hive。

原因:flink写入hive依赖于hadoop环境,IDE中运行缺少hadoop环

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值