- flink version:1.9.0
flink sql client不支持CREATE TABLE的DDL语句,Table api是支持的。
可以自己写一个提交sql的jar包练习下,学习基于flink1.9如何使用flink sql。
- 主要代码
public class SqlSubmit {
/**
* run flink sql
* @param sqls
* @throws Exception
*/
public void run(List<String> sqls)throws Exception {
final EnvironmentSettings settings = EnvironmentSettings
.newInstance()
.useBlinkPlanner()
.inStreamingMode()
.build();
final TableEnvironment tableEnv = TableEnvironment.create(settings);
//sql文本中只有create、insert语句
for (String sql : sqls) {
tableEnv.sqlUpdate(sql);
}
tableEnv.execute("submit sql job");
}
public static void main(String[] args) throws Exception {
if

本文介绍了在Flink 1.9.0版本中,使用Flink SQL客户端进行数据处理的限制,重点是通过自定义jar包执行CREATE TABLE的DDL语句。内容包括提供了一个test.sql示例脚本,以及run.sh执行脚本的说明,并分享了GitHub项目链接,用于演示如何基于时间消费Kafka数据。
最低0.47元/天 解锁文章
1014

被折叠的 条评论
为什么被折叠?



