flink
许可方
这个作者很懒,什么都没留下…
展开
-
flink table 1.11 scala版 消费kafka处理之后打入kafka
package tableimport org.apache.flink.streaming.api.scala.{StreamExecutionEnvironment}import org.apache.flink.table.api.bridge.scala.{StreamTableEnvironment}import org.apache.flink.table.api.{DataTypes, EnvironmentSettings, Table,_}import org.apache.f原创 2020-07-31 21:45:11 · 814 阅读 · 0 评论 -
flink table 需要导入的隐式转换
参考官网https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/common.htmlImplicit Conversion for ScalaThe Scala Table API features implicit conversions for the DataSet, DataStream, and Table classes.These conversions are enabled by importi原创 2020-07-31 21:26:34 · 409 阅读 · 0 评论 -
flink table中(Expression... fields)无法应用
在flink table中调用转换算子有两种方式一种是string,一种是expression,但是按照源码提示操作却报错原因:缺少隐式转换在这导入依赖包的时候添加隐式转换就可以了原创 2020-07-31 18:25:17 · 2459 阅读 · 1 评论 -
flink报错java.lang.IlleagalStateException: No ExecutorFactory found to execute the application
idea中flink的代码再1.10版本的时候可以正常运行,但是当把flink版本改成1.11的时候运行就报错很是郁闷,究其原因是少依赖,1.11版本需要引入flink-clients 依赖具体看flink官网https://ci.apache.org/projects/flink/flink-docs-master/release-notes/flink-1.11.html#reversed-dependency-from-flink-streaming-java-to-flink-client-f原创 2020-07-25 00:00:12 · 2641 阅读 · 0 评论 -
scala编辑的flink代码编译期报错
代码编辑完之后没有文档,在idea上运行时出现以下错误问题原因:idea中的scala版本是2.12,但是maven中的依赖用的是2.11版本的。解决办法:将两个版本改一致就可以了原创 2020-07-24 23:12:03 · 253 阅读 · 0 评论