python实现pyflink的scalar自定义函数

这篇博客介绍了如何利用Python的PyFlink库创建流处理环境,定义用户自定义函数(UDF),从Kafka源读取数据,并将结果写入PrintSink。示例中展示了创建TableEnvironment,定义source表和sink表,以及执行SQL查询来计算数据的总和。
摘要由CSDN通过智能技术生成

from pyflink.table import EnvironmentSettings, TableEnvironment
from pyflink.table import EnvironmentSettings, TableEnvironment, DataTypes

from pyflink.table.udf import TableFunction,udtf
from pyflink.table.expressions import call
from pyflink.table.udf import udf
# 1. 创建 TableEnvironment
env_settings = EnvironmentSettings.new_instance().in_streaming_mode().use_blink_planner().build()
table_env = TableEnvironment.create(env_settings)



# 2. 创建 source 表
table_env.execute_sql("""
    CREATE TABLE datagen (
        i INT,
        j INT,
        m VARCHAR 
    ) WITH (
              'connector' = 'kafka',
              'topic' = 'flink_udftest1',
              'properties.bootstrap.servers' = '10.1:9092',
              'properties.group.id' = 'test_PrintUdf',
              'scan.startup.mode' = 'latest-offset',
              'format' = 'json'
            )
""")



@udf(input_types=[DataTypes.INT(), DataTypes.INT()], result_type=DataTypes.INT())
def add(i, j):
    return i + j

table_env.register_function("add", add)


# 3. 创建 sink 表i INT,
#         j INT,m VARCHAR
table_env.execute_sql("""
    CREATE TABLE print (
        i INT,
        numsum INT
        
    ) WITH (
        'connector' = 'print'
    )
""")

# 4. 查询 source 表,同时执行计算
# 通过 Table API 创建一张表:
source_table = table_env.from_path("datagen")

# 或者通过 SQL 查询语句创建一张表:
#source_table = table_env.sql_query("SELECT * FROM datagen")


table_env.sql_update("insert into print select i, add(i,j) from datagen")
table_env.execute("job_sum")

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
PyFlink 自定义 UDF(User-Defined Function),可以使用 Python 编写 UDF 函数,并将其注册到 Flink 。下面是一个简单的例子,演示如何使用 Python 编写 UDF 函数,并在 PyFlink 注册和使用它: ```python from pyflink.table.udf import udf from pyflink.table import ScalarFunction from pyflink.table import DataTypes from pyflink.table import EnvironmentSettings # 自定义 UDF 函数 @udf(result_type=DataTypes.STRING(), func_type="scalar") def my_upper(s: str) -> str: return s.upper() # 创建 PyFlink 表环境 env_settings = EnvironmentSettings.new_instance().in_batch_mode().use_blink_planner().build() t_env = BatchTableEnvironment.create(environment_settings=env_settings) # 注册 UDF 函数 t_env.register_function("my_upper", my_upper) # 使用 UDF 函数 input_path = "/path/to/input" output_path = "/path/to/output" t_env.execute_sql(f""" CREATE TABLE my_input ( id INT, name STRING ) WITH ( 'connector' = 'csv', 'format' = 'csv', 'path' = '{input_path}' ) """) t_env.execute_sql(f""" CREATE TABLE my_output ( id INT, name_upper STRING ) WITH ( 'connector' = 'csv', 'format' = 'csv', 'path' = '{output_path}' ) """) t_env.execute_sql(""" INSERT INTO my_output SELECT id, my_upper(name) AS name_upper FROM my_input """) ``` 在上面的例子,我们使用 `@udf` 装饰器定义了一个名为 `my_upper` 的 UDF 函数,用于将字符串转换为大写。然后,我们在 PyFlink 注册了这个 UDF 函数,使用 `t_env.register_function` 方法将 `my_upper` 函数注册到 Flink 。最后,我们使用 `my_upper` 函数将输入表的字符串转换为大写,并将结果写入输出表
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小金子的夏天

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值