kafkaProducer 1.1 读取文件目录文件,发送到kafka Topic

package domain;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.io.*;
import java.util.Properties;
public class run {
//读取文件流以静态变量读取
static FileInputStream fis = null;
static InputStreamReader isr = null;
static BufferedReader br = null;
static String tempString = null;
static int count = 0;
//kafka Producer 静态变量创建对象
static Producer<String, String> producer = null;
static File file = null;

public static void main(String[] args) throws IOException, InterruptedException {
//读取文件形成一个持续写入kafka Producer的流
while (true) {
Properties props = new Properties();
//kafka brokerlist
props.put(“bootstrap.servers”, “10.62.200.200:9092,10.62.200.201:9092,10.62.200.202:9092”);
//ack “0,1,-1 all"四种,1为文件patition leader完成写入就算完成
props.put(“acks”, “1”);
props.put(“retries”, 0);
props.put(“batch.size”, 16384);
props.put(“linger.ms”, 1);
props.put(“buffer.memory”, 33554432);
//必须设置(k,v)的序列化 详情见kafkaProducer 的构造函数
props.put(“key.serializer”, “org.apache.kafka.common.serialization.StringSerializer”);
props.put(“value.serializer”, “org.apache.kafka.common.serialization.StringSerializer”);
producer = new KafkaProducer<>(props);
//指定目录
file = new File(”/udata/DataSource");
File[] files = file.listFiles();
for (File filenew : files) {

        fis = new FileInputStream(filenew);
        isr = new InputStreamReader(fis);
        br = new BufferedReader(isr);

        while ((tempString = br.readLine()) != null) {
            count++;
            //每条消息间隔2秒
            Thread.sleep(2000);

            producer.send(
                    new ProducerRecord<>("tmp", Integer.toString(count), tempString));
                    //发送完成后打印发送数据
            System.out.println(tempString);
        }

    }
    producer.close();
}

}

原文链接:https://blog.csdn.net/weixin_42887459/article/details/85119911

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将Flink读取文件发送Kafka,你可以按照以下步骤进行操作: 1. 首先,需要在Flink程序中添加Kafka依赖。可以在pom.xml文件中添加以下依赖: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-kafka_2.12</artifactId> <version>${flink.version}</version> </dependency> ``` 2. 然后,可以使用Flink的FileInputFormat读取文件源并将数据转换为Kafka消息。可以使用以下代码创建一个FileInputFormat: ``` TextInputFormat inputFormat = new TextInputFormat(new Path(filePath)); ``` 3. 接下来,可以使用Flink的DataStream API将数据从FileInputFormat读取并转换为Kafka消息。可以使用以下代码: ``` DataStream<String> inputStream = env.readFile(inputFormat, filePath) .map(new MapFunction<String, String>() { @Override public String map(String value) throws Exception { return value; } }); ``` 4. 然后,需要创建一个KafkaProducer并使用KafkaSink将数据发送Kafka。可以使用以下代码: ``` Properties kafkaProps = new Properties(); kafkaProps.setProperty("bootstrap.servers", "localhost:9092"); kafkaProps.setProperty("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); kafkaProps.setProperty("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); FlinkKafkaProducer<String> kafkaProducer = new FlinkKafkaProducer<>("my-topic", new SimpleStringSchema(), kafkaProps); inputStream.addSink(kafkaProducer); ``` 5. 最后,需要执行Flink程序来将数据从文件发送Kafka。可以使用以下代码: ``` env.execute("Flink Kafka Example"); ``` 以上就是将Flink读取文件发送Kafka的步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值