flink读写案例合集


前言

提示:这里主要总结在工作中使用到的和遇到到的问题:Java flink版本1.15+

一、flink 写kafka

1.第一种使用FlinkKafkaProducer API

// 假设有一个DataStream<String> named text  
        DataStream<String> text = env.fromElements("Hello", "World", "Flink", "Kafka");  
  
        Properties props = new Properties();  
        props.put("bootstrap.servers", "localhost:9092");  
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");  
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");  
  
        FlinkKafkaProducer<String> myProducer = new FlinkKafkaProducer<>(  
            "my-topic",                // 目标Kafka topic  
            new SimpleStringSchema(),  // 序列化schema  
            props,                     // 生产者配置  
            FlinkKafkaProducer.Semantic.EXACTLY_ONCE); // 语义保证  
  
        // 添加sink  
        text.addSink(myProducer);

此FlinkKafkaConsumer或FlinkKafkaProducer API 在flink1.15版本后,已经被弃用。推出了新的消费kafka 的 API KafkaSource和KafkaSink。
在这里插入图片描述

2.第二种使用自定义序列化器

import org.apache.flink.api.common.serialization.SerializationSchema;  
import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema;  
  
public class CustomKafkaSerializationSchema implements KafkaSerializationSchema<JSONObject> {
   
	private static final long serialVersionUID = 8497940668660042203L;
	private String topic;
	public CustomKafkaSerializationSchema(final String topic) {
   
		this.topic = topic;
	}

	@Override
	public ProducerRecord<byte[], byte[]> serialize(final JSONObject element, final Long timestamp) {
   
		return new ProducerRecord<byte[], byte[]>(topic, element.toJSONString().getBytes());
	}
}

在低版本的flink-connector-kafka中,不支持KafkaSerializationSchema

3.第三种使用FlinkKafkaProducer011 API

       // 假设有一个DataStream<String>  
        DataStream<String> text = env.fromElements("Hello", "World", "Flink", "Kafka");

        // Kafka 生产者配置  
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        // 使用 FlinkKafkaProducer011 写入 Kafka  
        FlinkKafkaProducer011<String> myProducer = new FlinkKafkaProducer011<>(
                "my-topic",          // 目标 Kafka topic  
                new SimpleStringSchema(),  // 序列化 schema  
                props,                     // 生产者配置  
                FlinkKafkaProducer011.Semantic.EXACTLY_ONCE); // 语义保证  

        // 添加 sink  
        text.addSink(myProducer);

使用FlinkKafkaProducer011有问题,由于flink1.15+版本FlinkKafkaProducer

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值