Flink--Table API UDF函数之表函数

首先自定义一个类,继承TableFunction类,返回值类型由TableFunction的泛型决定,由 protected collect 来发送结果数据。

在Table API中,Table函数需要与.joinLateral或.leftOuterJoinLateral一起使用。

在SQL 中,则需要 lateral table 来一起使用

使用起来的结果有点类似 hive 的 lateral view 

/**
 * @program: flink2021
 * @description: ${description}
 * @author: Mr.G
 * @create: 2021-09-27 14:23
 **/
package com.ct.day08

import com.ct.day01.SensorSource
import org.apache.flink.streaming.api.scala._
import org.apache.flink.table.api._
import org.apache.flink.table.api.scala._
import org.apache.flink.table.functions.TableFunction
import org.apache.flink.types.Row


/**
 * @ClassName: TableFunctionExample
 * @Description: ${description}
 * @Author Mr.G
 * @Date 2021/9/27
 * @Version 1.0
 *
 */
object TableFunctionExample {

  def main(args: Array[String]): Unit = {


    val  env = StreamExecutionEnvironment.getExecutionEnvironment
    env.setParallelism(1)

    val stream = env.fromElements(
      "hello#world",
      "hi#flink"
    )


    val settings = EnvironmentSettings.newInstance()
      .inStreamingMode()
      .useBlinkPlanner()
      .build()

    val tEnv = StreamTableEnvironment.create(env,settings)

    val table = tEnv.fromDataStream(stream,'s)

    val mySplit = new split("#")

    table
        .leftOuterJoinLateral(mySplit('s) as ('word,'length))
      //上下两种写法等价  类似 hive的 lateral view
   //   .joinLateral(mySplit('s) as ('word,'length))
      .select('s,'word,'length)
      .toAppendStream[Row]
//      .print()

    tEnv.createTemporaryView("test",table)

    tEnv.registerFunction("mySplit",mySplit)

    tEnv.sqlQuery("select s,word,length from test,lateral table(mySplit(s)) as T(word,length)"
    )
        .toAppendStream[Row]
        .print()


    env.execute()
  }


  //TableFunction后边的泛型是返回值类型
  class split(sep : String) extends TableFunction[(String,Int)]{
    def eval(s : String) : Unit={

      //使用 collect 输出结果
      s.split(sep).foreach(x=>collect((x,x.length)))

    }

  }

}

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink 中使用 Json 解析 UDF 函数,需要使用 Flink 自带的 Json 库,即 `flink-json`。具体步骤如下: 1. 添加依赖 在 `pom.xml` 中添加以下依赖: ```xml <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-json</artifactId> <version>${flink.version}</version> </dependency> ``` 其中,`${flink.version}` 是 Flink 的版本号,需要根据实际情况修改。 2. 编写 UDF 函数Flink 中,UDF 函数需要实现 `org.apache.flink.table.functions.ScalarFunction` 接口。具体实现过程如下: ```java import org.apache.flink.api.common.typeinfo.TypeInformation; import org.apache.flink.api.java.typeutils.TypeExtractor; import org.apache.flink.table.functions.ScalarFunction; import org.apache.flink.types.Row; import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.ObjectMapper; import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.JsonNode; public class JsonParse extends ScalarFunction { public Row eval(String jsonStr, String key) { ObjectMapper mapper = new ObjectMapper(); try { JsonNode jsonNode = mapper.readTree(jsonStr); JsonNode valueNode = jsonNode.get(key); if (valueNode == null) { return null; } TypeInformation<?>[] fieldTypes = new TypeInformation<?>[1]; fieldTypes[0] = TypeExtractor.getForClass(String.class); Row row = new Row(1); row.setField(0, valueNode.asText()); return row; } catch (Exception e) { return null; } } } ``` 该 UDF 函数的作用是从 Json 字符串中解析出指定的 key 对应的值,返回一个包含该值的 Row 对象。 3. 使用 UDF 函数Flink SQL 中,可以使用 `json_parse` 函数来调用 `JsonParse` UDF 函数。示例代码如下: ```sql SELECT json_parse('{"name":"Alice","age":20}', 'name') as name FROM table_name; ``` 该语句将返回一个包含字符串 `"Alice"` 的 Row 对象。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值