【自定义Source、Sink】Flink自定义Source、Sink对ClickHouse进行读和批量写操作

ClickHouse官网文档

Flink 读取 ClickHouse 数据两种驱动

  1. ClickHouse 官方提供Clickhouse JDBC.【建议使用
  2. 第3方提供的Clickhouse JDBC. ru.yandex.clickhouse.ClickHouseDriver

ru.yandex.clickhouse.ClickHouseDriver.现在是没有维护

ClickHouse 官方提供Clickhouse JDBC的包名:com.clickhouse.jdbc.*

有些版本com.clickhouse.jdbc.* 包含了 ru.yandex.clickhouse.ClickHouseDriver.

因此加载包的时候一定要注意导入的包名

引入依赖

        <!-- clickhouse jdbc driver -->
        <dependency>
            <groupId>com.clickhouse</groupId>
            <artifactId>clickhouse-jdbc</artifactId>
        </dependency>

使用的是 0.3 这个版本,该版本就包含上述3方CH jdbc包

     <!-- CH JDBC版本推荐使用 0.3, 0.4的版本是要 JDK 17 -->
     <clickhouse-jdbc.version>0.3.2-patch11</clickhouse-jdbc.version>

自定义Source

测试表映射实体类,该表仅有一个name字段

@Data
@NoArgsConstructor
@AllArgsConstructor
public class CHTestPO {

    private String name;

}

Flink Clickhouse Source

public class ClickHouseSource implements SourceFunction<CHTestPO> {

    private final String URL;
    private final String SQL;

    public ClickHouseSource(String URL, String SQL) {
        this.URL = URL;
        this.SQL = SQL;
    }

    @Override
    public void run(SourceContext<CHTestPO> output) throws Exception {
        
        //  Properties是持久化的属性集 Properties的key和value都是字符串
        Properties properties = new Properties();
        ClickHouseDataSource clickHouseDataSource = new ClickHouseDataSource(URL, properties);

        // 使用 try-with-resource 方式关闭JDBC连接 无需手动关闭
        try (ClickHouseConnection conn = clickHouseDataSource.getConnection()) {

            // clickhouse 通过游标的方式读取数据
            Statement stmt = conn.createStatement();
            ResultSet rs = stmt.executeQuery(SQL);
            while (rs.next()) {
                String name = rs.getString(1);
                output.collect(new CHTestPO(name));
            }
        }

    }

    @Override
    public void cancel() {

    }
}

自定义Sink

需额外引入依赖

        <!-- Flink-Connector-Jdbc -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-jdbc_${scala.binary.version}</artifactId>
        </dependency>

Java 对sql语句处理的两个对象

  1. PreparedStatement对象:能够对预编译之后的sql语句进行处理【SQL 语句预编译:通过占位符'?'实现,可以防止sql注入】
  2. Statement对象:只能对静态的sql语句进行处理

核心代码

/**
 * 使用 Flink-jdbc-connector + 批量写入 + sql语句的预编译 写入 Clickhouse
 */
public class ClickHouseJdbcSink<T> {

    private final SinkFunction<T> sink;
    private final static String NA = "null";

    public ClickHouseJdbcSink(String sql, int batchSize, String url) {

        sink = JdbcSink.sink(
                sql,
                // 对sql语句进行预编译
                new ClickHouseJdbcStatementBuilder<T>(),
                // 设置批量插入数据
                new JdbcExecutionOptions.Builder().withBatchSize(batchSize).build(),
                // 设置ClickHouse连接配置
                new JdbcConnectionOptions.JdbcConnectionOptionsBuilder()
                        .withUrl(url)
                        .build()
        );

    }

    public SinkFunction<T> getSink() {
        return this.sink;
    }

    /**
     * 对预编译之后的sql语句进行占位符替换
     *
     * @param ps:     PreparedStatement对象 下标从 1 开始
     * @param fields: clickhouse表PO对象的属性字段
     * @param object: clickhouse表PO对象的属性字段所对应的数据类型
     */
    public static void setPreparedStatement(
            PreparedStatement ps,
            Field[] fields,
            Object object) throws IllegalAccessException, SQLException {

        // 遍历 Field[]
        for (int i = 1; i <= fields.length; i++) {
            // 取出每个Field实例
            Field field = fields[i - 1];
            // 指示反射的对象在使用时应该取消 Java 语言访问检查
            field.setAccessible(true);
            // 通过Field实例的get方法返回指定的对象
            Object o = field.get(object);
            if (o == null) {
                ps.setNull(i, 0);
                continue;
            }

            // 这里统一设为字符型
            String fieldValue = o.toString();

            // 变量和常量的比较,通常将常量放前,可以避免空指针
            if (!NA.equals(fieldValue) && !"".equals(fieldValue)) {
                // 替换对应位置的占位符
                ps.setObject(i, fieldValue);
            } else {
                ps.setNull(i, 0);
            }
        }
    }

}

对sql语句进行预编译

@Slf4j
public class ClickHouseJdbcStatementBuilder<T> implements JdbcStatementBuilder<T> {

    @Override
    public void accept(PreparedStatement preparedStatement, T t) throws SQLException {

        /* **********************
         * Java通过反射获取类的字段:
         *
         * 1. getDeclaredFields():获取所有的字段,不会获取父类的字段
         * 2. getFields(): 只能会public字段,获取包含父类的字段
         *
         * *********************/

        Field[] fields = t.getClass().getDeclaredFields();

        // 将获取到的字段替换sql预编译之后的占位符。
        try {
            ClickHouseJdbcSink.setPreparedStatement(preparedStatement, fields, t);
        } catch (IllegalAccessException e) {
            log.error("sql 预编译失败", e);
            e.printStackTrace();
        }

    }
}

ClickHouse读写工具类

image-20231209233006017

public class ClickHouseUtil {

    private static final String URL;

    static {
        ParameterTool parameterTool = ParameterUtil.getParameters();
        URL = parameterTool.get("clickhouse.url");
    }

    /**
     * 读取clickhouse
     */
    public static DataStream<CHTestPO> read(StreamExecutionEnvironment env, String sql) {
        return env.addSource(new ClickHouseSource(URL, sql));
    }

    /**
     * 批量写入ClickHouse
     */
    public static <T> DataStreamSink<T> batchWrite(
            DataStream<T> dataStream,
            String sql,
            int batchSize) {

        //生成 SinkFunction
        ClickHouseJdbcSink<T> clickHouseJdbcSink =
                new ClickHouseJdbcSink<T>(sql, batchSize, URL);
        return dataStream.addSink(clickHouseJdbcSink.getSink());
    }

}

测试一下

public class ClickHouseUtilTest {

    @DisplayName("测试Flink+jdbc+游标读取Clickhouse")
    @Test
    void testRead() throws Exception {
        StreamExecutionEnvironment env =
                StreamExecutionEnvironment.getExecutionEnvironment();

        // 设置并行度1
        env.setParallelism(1);

        // 从default数据库的user表中读取数据
        String sql = "select * from default.user";
        DataStream<CHTestPO> ds = ClickHouseUtil.read(env, sql);

        // 打印数据流中的元素
        ds.print("clickhouse");

        // 执行程序
        env.execute();

    }

    @DisplayName("测试Flink-Connector-jdbc+预编译批量写入Clickhouse")
    @Test
    void testBatchWrite() throws Exception {
        StreamExecutionEnvironment env =
                StreamExecutionEnvironment.getExecutionEnvironment();

        // 设置并行度1
        env.setParallelism(1);

        CHTestPO po = new CHTestPO();
        po.setName("Lucy");
        CHTestPO po1 = new CHTestPO();
        po1.setName("Jack");

        DataStream<CHTestPO> ds = env.fromCollection(Arrays.asList(po, po1));

        // 定义将数据写入ClickHouse数据库的SQL语句
        String sql = "insert into default.user(name) values(?)";
        // 调用ClickHouseUtil的batchWrite方法将数据流ds中的数据批量写入ClickHouse数据库
        ClickHouseUtil.batchWrite(ds, sql, 2);

        // 执行程序
        env.execute();
    }
}

此时表中仅一行记录

image-20231209232619959

读取没有问题!

image-20231209232741522

写入没有问题!

image-20231209232902469

  • 6
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Flink自定义SinkSource是指用户可以根据自己的需求,编自己的数据源和数据输出方式。Flink提供了一些内置的SinkSource,但是有时候用户需要根据自己的业务需求,自定义数据源和数据输出方式。 自定义SinkSource需要实现Flink提供的接口,例如实现SinkFunction接口来自定义数据输出方式,实现SourceFunction接口来自定义数据源。用户可以根据自己的需求,实现这些接口,然后将自定义SinkSource应用到Flink程序中。 自定义SinkSource可以帮助用户更好地满足自己的业务需求,提高数据处理的效率和准确性。 ### 回答2: Flink自定义SinkSource方便开发人员根据特定业务需求定制化的数据输入和输出。这也是Flink作为DataStream处理引擎的一个强大特性。 自定义Sink的主要作用是将Flink处理的数据流输出到外部存储或处理系统中,如Kafka、Hadoop、Elasticsearch、MySQL等。通过自定义Sink,我们可以满足不同业务场景下,数据输出的不同需求。 自定义Sink的实现需要继承Flink提供的`RichSinkFunction`或者`SinkFunction`抽象类,并实现其抽象方法。`RichSinkFunction`中提供了一些状态管理的方法,如`open`、`close`等,我们可以在这些方法中添加额外的代码逻辑。自定义SinkFunction可以重invoke方法,将不需要状态管理的代码集中在此方法中。 自定义Source的主要作用是将外部数据源中的数据读取并发送给Flink的DataStream处理模块。自定义Source可以读取各种类型的数据源,如Kafka、文件、Socket等。 自定义Source的实现需要继承Flink提供的`RichParallelSourceFunction`或者`SourceFunction`抽象类,并实现其抽象方法。`RichParallelSourceFunction`中支持在并行算子中运行,因此对于大规模数据的处理尤为适合。 在自定义Source中,需要实现一个`run`方法和一个`cancel`方法。`run`方法中是数据源处理逻辑的主要实现,`cancel`方法用于停止数据源的读取。我们还可以通过Flink提供的Checkpoint机制来管理数据源。 总之,自定义SinkSourceFlink处理数据流的重要特性,使得开发人员可以根据业务需求灵活定制化的输入输出逻辑。 ### 回答3: Flink是一个开源流式处理框架,它提供了丰富的内置SinkSource,同时也支持用户自定义SinkSource,以便满足不同的业务需求。 自定义Sink可以用于将流式数据入外部系统中,比如数据库、消息队列和文件系统等。Flink提供了一个简单的接口SinkFunction,通过实现该接口可以快速开发自己的SinkSinkFunction接口定义了一个抽象方法invoke(),该方法是在每个输入元素处理完成时被调用。开发者需要编自己的业务逻辑,在invoke()中实现将数据入目标系统的逻辑。 自定义Source可以用于从外部系统读取数据,并将其逐个交付给Flink程序进行处理。同样地,Flink也提供了一个简单的接口SourceFunction,通过实现该接口可以快速开发自己的SourceSourceFunction接口定义了两个抽象方法:run()和cancel()。run()方法是在源自生命周期内调用的,它是源自执行主逻辑的地方。cancel()方法是用于清理资源的。开发者需要在run()方法中编从外部系统读取数据的逻辑,并且能够异步地产生数据,最后将数据通过SourceContext将数据一条一条源源不断地输出。 自定义SinkSourceFlink框架中非常常用的一个扩展方式,它可以满足用户自定义的需求,在具体的业务场景中,能够灵活的使用自定义SinkSource对数据的处理进行个性化的定制化。同时,自定义SinkSource的开发也相对简单,可以通过实现简单的接口,快速完成自定义SinkSource的开发。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不进大厂不改名二号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值