Flink 在流处理上常见的sink

本文介绍了Flink在流处理中如何进行sink操作,包括写入本地文件、HDFS以及Kafka和MySQL。举例说明了从MySQL读取数据并发送到Kafka,以及如何创建Kafka topic和将本地集合数据存入MySQL。
摘要由CSDN通过智能技术生成

Flink 在流处理上常见的sink

Flink将数据进行sink操作到本地文件/本地集合/HDFS等和之前的批处理操作一致

  • sink 到 kafka (读取mysql数据,落地到kafka)

    创建kafka的topic:kafka-console-consumer.sh --from-beginning --topic test2 --zookeeper node01:2181,node02:2181,node03:2181

    object DataSink_kafka {
         
        def main(args: Array[String]): Unit = {
         
            // 1. 创建流处理环境
            val env = StreamExecutionEnvironment.getExecutionEnvironment
            // 2. 设置并行度
            env.setParallelism(1)
            // 3. 添加自定义MySql数据源
            val source: DataStream[(Int, String, String, String)] = env.addSource(new MySql_source)
            // 4. 转换元组数据为字符串
            val strDataStream: DataStream[String] = source.map(
            line => line._1 + line._2 + line._3 + line._4
            )
          
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值