Kafka1.0.X_生产者API详解

Producer是Kafka三大组件中的一个,用于发送消息到kafka集群中

Producer提供了丰富的配置(见后面的配置项)用于控制它的行为

在编码之前先使用命令创建topic

./kafka-topics.sh --create --zookeeper hadoop01,hadoop02,hadoop03:2181 --partitions 2 --replication-factor 3 --topic mytopic1

简单模式

Producer采用默认分区方式将消息散列的发送到各个分区当中

package com.jv;
​
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;
​
import java.util.Properties;
​
public class MyProducer {
    public static void main(String[] args) throws InterruptedException {
        Properties props = new Properties();
        //设置kafka集群的地址
        props.put("bootstrap.servers", "hadoop01:9092,hadoop02:9092,hadoop03:9092");
        //ack模式,all是最慢但最安全的
        props.put("acks", "-1");
        //失败重试次数
        props.put("retries", 0);
        //每个分区未发送消息总字节大小(单位:字节),超过设置的值就会提交数据到服务端
        props.put("batch.size", 10);
        //props.put("max.request.size",10);
        //消息在缓冲区保留的时间,超过设置的值就会被提交到服务端
        props.put("linger.ms", 10000);
        //整个Producer用到总内存的大小,如果缓冲区满了会提交数据到服务端
        //buffer.memory要大于batch.size,否则会报申请内存不足的错误
        props.put("buffer.memory", 10240);
        //序列化器
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
​
        Producer<String, String> producer = new KafkaProducer<>(props);
        for (int i = 0; i < 100; i++)
            producer.send(new ProducerRecord<String, String>("mytopic1", Integer.toString(i), "dd:"+i));
        //Thread.sleep(1000000);
        producer.close();
    }
}

配置项

名称说明默认值有效值重要性
bootstrap.serverskafka集群的broker-list,如:<br>hadoop01:9092,hadoop02:9092 必选
acks确保生产者可靠性设置,有三个选项:<br>acks=0:不等待成功返回<br>acks=1:等Leader写成功返回<br>acks=all:等Leader和所有ISR中的Follower写成功返回,all也可以用-1代替-10,1,-1,all 
key.serializerkey的序列化器 ByteArraySerializer<br>StringSerializer必选
value.serializervalue的序列化器 ByteArraySerializer<br>StringSerializer必选
buffer.memoryProducer总体内存大小33554432不要超过物理内存,根据实际情况调整建议必选
compression.type压缩类型<br>压缩最好用于批量处理,批量处理消息越多,压缩性能越好none、gzip、snappy 
retries发送失败尝试重发次数0  
batch.size每个partition的未发送消息大小16384根据实际情况调整建议必选
client.id附着在每个请求的后面,用于标识请求是从什么地方发送过来的   
connections.max<br>.idle.ms连接空闲时间超过过久自动关闭(单位毫秒)540000  
linger.ms数据在缓冲区中保留的时长,0表示立即发送<br>为了减少网络耗时,需要设置这个值<br>太大可能容易导致缓冲区满,阻塞消费者<br>太小容易频繁请求服务端0  
max.block.ms最大阻塞时长60000  
max.request.size请求的最大字节数,该值要比batch.size大<br>不建议去更改这个值,如果设置不好会导致程序不报错,但消息又没有发送成功1048576  
partitioner.class分区类,可以自定义分区类,实现partitioner接口默认是哈希值%partitions  
receive.buffer.bytessocket的接收缓存空间大小,当阅读数据时使用32768  
request.timeout.ms等待请求响应的最大时间,超时则重发请求,超过重试次数将抛异常3000  
send.buffer.bytes发送数据时的缓存空间大小131072  
timeout.ms控制server等待来自followers的确认的最大时间30000  
max.in.flight.<br>requests.per.<br>connectionkafka可以在一个connection中发送多个请求,叫作一个flight,这样可以减少开销,但是如果产生错误,可能会造成数据的发送顺序改变。5  
metadata.fetch<br>.timeout.ms从ZK中获取元数据超时时间<br>比如topic\host\partitions60000  
metadata.max.age.ms即使没有任何partition leader 改变,强制更新metadata的时间间隔300000  
metric.reporters类的列表,用于衡量指标。实现MetricReporter接口,将允许增加一些类,这些类在新的衡量指标产生时就会改变。JmxReporter总会包含用于注册JMX统计none  
metrics.num.samples用于维护metrics的样本数2  
metrics.sample.window.msmetrics系统维护可配置的样本数量,在一个可修正的window size。这项配置配置了窗口大小,例如。我们可能在30s的期间维护两个样本。当一个窗口推出后,我们会擦除并重写最老的窗口30000  
reconnect.backoff.ms连接失败时,当我们重新连接时的等待时间。这避免了客户端反复重连10  
retry.backoff.ms在试图重试失败的produce请求之前的等待时间。避免陷入发送-失败的死循环中100  
     

更全的配置参考官方文档:http://kafka.apache.org/documentation/#producerconfigs

幂等模式

​ 幂等性:客户端一次或多次操作,最终数据是一致的,比如购买火车票支付时可能显示网络异常,但其实已经扣款成功,用户再次发起扣款不会再触发真正的扣款Kafka只能保证在一个会话中的幂等性

​ 幂等模式只需要将enable.idempotence设置为true,一旦设置了该属性,那么retries默认是Integer.MAX_VALUE ,acks默认是all。代码的写法和前面例子没什么区别

事务模式

​事务模式要求数据发送必须包含在事务中,在事务中可以向多个topic发送数据,消费者端最好也使用事务模式读,保证一次能将整个事务的数据全部读取过来。当然消费者也可以不设置为事务读的模式。

   @Test
    public void transactional(){
        Properties props = new Properties();
        props.put("bootstrap.servers", "hadoop01:9092,hadoop02:9092,hadoop03:9092");
        props.put("transactional.id", "my_transactional_id");
        Producer<String, String> producer = new KafkaProducer<>(props, new StringSerializer(), new StringSerializer());
​
        producer.initTransactions();
​
        try {
            //数据发送必须在beginTransaction()和commitTransaction()中间,否则会报状态不对的异常
            producer.beginTransaction();
            for (int i = 0; i < 100; i++)
                producer.send(new ProducerRecord<>("mytopic1", Integer.toString(i), Integer.toString(i)));
            producer.commitTransaction();
        } catch (ProducerFencedException | OutOfOrderSequenceException | AuthorizationException e) {
            // 这些异常不能被恢复,因此必须要关闭并退出Producer
            producer.close();
        } catch (KafkaException e) {
            // 出现其它异常,终止事务
            producer.abortTransaction();
        }
        producer.close();
    }

自定义分区类(Partitioner)

没什么特殊分区逻辑,把kafka默认的分区类拿出来读一下

package org.apache.kafka.clients.producer.internals;
​
import java.util.List;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ConcurrentMap;
import java.util.concurrent.ThreadLocalRandom;
import java.util.concurrent.atomic.AtomicInteger;
import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.PartitionInfo;
import org.apache.kafka.common.utils.Utils;
​
public class DefaultPartitioner implements Partitioner {
    private final ConcurrentMap<String, AtomicInteger> topicCounterMap = new ConcurrentHashMap();
    //需要覆盖的方法
    public DefaultPartitioner() {
    }
    //需要覆盖的方法,可以在这里添加配置信息
    public void configure(Map<String, ?> configs) {
    }
    //需要覆盖的方法,最重要的
    /*
    topic:主题
    key:动态绑定的,传的什么类型就是什么类型
    keyBytes:Ascii码数组
    value:动态绑定的,传的什么类型就是什么类型
    valueBytes:Ascii码数组
    cluster:kafka集群
    */
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
        //拿到所有分区
        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
        //分区数量
        int numPartitions = partitions.size();
        //如果key为空,则取消息作为分区依据
        if (keyBytes == null) {
            int nextValue = this.nextValue(topic);
            //可用分区,我在想应该是
            List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
            //可用分区数
            if (availablePartitions.size() > 0) {
                //计算分区索引
                int part = Utils.toPositive(nextValue) % availablePartitions.size();
                //返回分区
                return ((PartitionInfo)availablePartitions.get(part)).partition();
            } else {
                //如果可用分区=0,则直接返回所有分区中的一个
                return Utils.toPositive(nextValue) % numPartitions;
            }
        } else {
            //key有值,则返回所有分区中的一个
            return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
        }
    }
    //如果没有key,则调用该方法那消息来做分区依据
    private int nextValue(String topic) {
        AtomicInteger counter = (AtomicInteger)this.topicCounterMap.get(topic);
        if (null == counter) {
            counter = new AtomicInteger(ThreadLocalRandom.current().nextInt());
            AtomicInteger currentCounter = (AtomicInteger)this.topicCounterMap.putIfAbsent(topic, counter);
            if (currentCounter != null) {
                counter = currentCounter;
            }
        }
​
        return counter.getAndIncrement();
    }
    //需要覆盖的方法
    public void close() {
    }
}

 

转载于:https://my.oschina.net/u/3049601/blog/1834895

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值