![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
scala
sssuperMario
这个作者很懒,什么都没留下…
展开
-
flink-入门功能整合(udf,创建临时表table,使用flink sql)
说明 本次测试用scala,java版本大体都差不多,不再写两个版本了 StreamTableEnvironment做了很多调整,目前很多网上的样例使用的都是过时的api,本次代码测试使用的都是官方doc中推荐使用的新api 本次测试代码主要测试了三个基本功能:1.UDF 2.流处理Table的创建以及注册 3.Flink Sql 代码 import org.apache.flink.api.scala._ import org.apache.flink.streaming.api.scala.{Da原创 2021-03-02 16:42:15 · 1863 阅读 · 0 评论 -
flink-入门-world count(流-scala-java)
测试项目依赖: <dependencies> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-scala_2.12</artifactId> <version>1.12.1</version> </dependency&原创 2021-03-01 17:41:38 · 272 阅读 · 0 评论 -
sql一行拆分成多行 -sparksql
def main(args: Array[String]): Unit = { val conf = new SparkConf() conf.setMaster("local").setAppName("spark-sql-test") val sparkSession = SparkSession.builder().config(conf).getOrCreate() // // val df1 = sparkSession.createDataFrame(Seq(..原创 2020-10-13 10:45:11 · 1730 阅读 · 0 评论 -
scala的Seq与java的List相互转换
//Seq 转 List List<String> list = scala.collection.JavaConversions.seqAsJavaList(seq); //List 转 Seq List<Column> list = new ArrayList<>(); list.add(new Column("columnA")); Seq<Colu...原创 2019-12-04 14:29:48 · 2441 阅读 · 0 评论