kafka踩坑指南

1,kafka写入失败

今天我司线上kafka消息代理出现错误日志,异常rebalance,而且平均间隔2到3分钟就会rebalance一次,分析日志发现比较严重。错误日志如下

这里就涉及到问题是消费者在创建时会有一个属性max.poll.interval.ms
该属性意思为kafka消费者在每一轮poll()调用之间的最大延迟,消费者在获取更多记录之前可以空闲的时间量的上限。如果此超时时间期满之前poll()没有被再次调用,则消费者被视为失败,并且分组将重新平衡,以便将分区重新分配给别的成员。

解决方案

https://www.jianshu.com/p/271f88f06eb3

1.增加max.poll.interval.ms处理时长

kafka消费者 默认此间隔时长为300s,本次故障是300s都没处理完成,于是改成500s。

max.poll.interval.ms=500000

2.设置分区拉取阈值

kafkaConsumer调用一次轮询方法只是拉取一次消息。客户端为了不断拉取消息,会用一个外部循环不断调用轮询方法poll()。每次轮询后,在处理完这一批消息后,才会继续下一次的轮询。

max.poll.records = 50

核心报错信息:

Unable to read additional data from client sessionid 0x00, likely client has closed socket

EndOfStreamException: Unable to read additional data from client sessionid 0x6362257b44e5068d, like

 

问题:

Unable to read additional data from client sessionid 0x0, likely client has closed socket

 

 
  1. [2014-11-13 10:28:47,989] INFO Accepted socket connection from /192.168.50.33:2676 (org.apache.zookeeper.server.NIOServerCnxn)

  2. [2014-11-13 10:28:47,989] WARN EndOfStreamException: Unable to read additional data from client sessionid 0x0, likely client has closed socket (org.apache.zookeeper.server.NIOServerCnxn)


问题:

配置的超时时间太短,Zookeeper没有读完Consumer的数据,连接就被Consumer断开了!

 

解决:

在config/server.properties文件中将超时连接属性的值调大一点,如下:

 

zookeeper.session.timeout.ms=400000

具体问题所在:

客户端连接Zookeeper时,配置的超时时长过短。致使Zookeeper还没有读完Consumer的数据,连接就被Consumer断开了。

解决方案:

初始化Zookeeper连接时,将接收超时参数值调整大一些即可,默认是毫秒(ms)
在C++中,在设置第三个参数recv_timeout时,设置大一些,比如10000ms就可以解决这里的问题。

是zoo.cfg里面的tickTime这个参数,后来我把tickTime2000改为10000之后就好了

对于目前版本的Kafka来说,consumer的rebalance的确有需要需要改进的部分,很容易想到的包括:

  • 对于空消费组而言,能够稍稍放松rebalance的严苛条件,让rebalance发生的次数降低一些
  • 对于有大量成员的消费组而言,是否可以考虑以前的分配方案而不是像现在这样完全抛弃之前方案从头来过

  值得高兴的是,社区已经实现了第一个改进并将其集成进0.11.0.0版本中,也就是说用户在升级到0.11后便可以体验到这种延时rebalance的效果,主要表现为空消费组从EMPTY到STABLE的时间间隔应该显著缩短。本文将简要介绍一下该新功能以及实现原理。

新增参数:group.initial.rebalance.delay.ms

  对于用户来说,这个改进最直接的效果就是新增了一个broker配置:group.initial.rebalance.delay.ms,默认是3秒钟。用户需要在server.properties文件中自行修改为想要配置的值。这个参数的主要效果就是让coordinator推迟空消费组接收到成员加入请求后本应立即开启的rebalance。在实际使用时,假设你预估你的所有consumer组成员加入需要在10s内完成,那么你就可以设置该参数=10000。目前来看,这个参数的使用还是很方便的~

2.kafka报错内容:

WARN [Consumer clientId=consumer-1, groupId=console-consumer-950] Connection to node -1 could not be established. Broker may not be available.

这是因为你的配置文件中的PLAINTEXT跟你请求的内容不同。举例来说,我在配置文件里配置的listeners=PLAINTEXT://10.127.96.151:9092,但是我想测试的时候请求的是./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic1 --from-beginning

正确的应该是./kafka-console-consumer.sh --bootstrap-server 10.127.96.151:9092 --topic topic1 --from-beginning

./kafka-consumer-groups.sh --bootstrap-server  localhost:9092  --describe --group  Notify_Notify
./kafka-consumer-groups.sh --bootstrap-server  10.0.22.11:9092  --describe --group  Notify_Notify

 

3.kafka  报错 Too many open files 

因为配置 /etc/security/limits.conf 文件不生效的,需要在 kafka 的systemd脚本中添加 [Service]  中 LimitNOFILE=655360

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: "kafka权威指南2pdf"指的是一本关于Kafka分布式消息系统的权威指南,并且是以PDF电子书的形式出现。Kafka是一个高吞吐量的分布式发布订阅消息系统,广泛应用于实时数据处理和其它互联网技术。本指南的第二版涵盖了Kafka 2.0的新特性和改进,包括可靠的管道处理、连接器、Kafka Streams等,帮助读者深入了解Kafka的全貌,并进一步优化自己的架构设计和应用场景。 指南通过深入浅出的方式,逐步介绍了Kafka的核心概念和使用方法,包括消息存储、分布式产生消费流程、数据读写、消息分区和复制以及集群管理等方面。同时,书中也针对生产环境中的各种实际问题进行了详细阐述和解决方案。除此之外,本指南还讲述了一些使用场景以及常见错误和故障处理的方法。 本书面向从事分布式系统、大数据、消息队列等领域的研究人员和技术工程师,对于对Kafka有兴趣的读者也是一个很好的入门教材。PDF电子书格式的发布方便了读者的获取和查阅,同时也便于搜索和存储。总之,kafka权威指南2pdf是一本Kafka方面的精彩书籍,值得广大读者的借鉴和阅读。 ### 回答2: Kafka权威指南2是一本权威的分布式消息系统Kafka指南,其中包含了Kafka的基本概念、设计原则、架构以及各个组件的实现流程和细节等方面的内容。通过阅读该指南,读者可以深入了解Kafka的架构和运作机制,掌握Kafka的基本使用和实践技术,以及学习到Kafka的性能优化技巧和最佳实践等知识。 该指南的第二版相较于第一版进行了全面的更新和扩充,其中包含了新增加的Kafka Streams、Kafka Connect和Kafka Security等新特性的介绍和使用方法,以及更为深入的代码实现和性能优化技巧的详述。此外,该指南还包含了Kafka在不同应用场景下的实际应用案例,为读者提供了更加丰富的学习内容和实践参考。 总之,Kafka权威指南2是一本非常值得学习和研究的指南,对于从事大数据分布式系统开发、架构设计和运维管理的工程师以及对Kafka感兴趣的开发者来说,都是一本具有实用性和价值的技术书籍。 ### 回答3: Kafka权威指南2是由Jay Kreps, Neha Narkhede和Gwen Shapira联合撰写的Kafka技术详解书籍的第2版。该书详细介绍了Kafka的核心概念、架构设计、应用场景等,适合那些想要深入理解Kafka的开发者、架构师以及数据处理工程师等阅读。该书主要分为两部分,第一部分介绍了核心概念和技术,包括Kafka的可扩展性、Partition的原理、Producer和Consumer的实现以及如何通过Kafka实现数据流的处理等;第二部分主要介绍了如何使用Kafka构建实际应用场景,包括log aggregation、stream processing、messaging系统等。此外,该书还介绍了一些Kafka生态系统中的工具和框架,如Kafka Connect和Kafka Streams等,帮助读者深入了解如何在实际项目中应用Kafka。总的来说,该书不仅适合那些刚开始接触Kafka的开发者,也适合那些想要深入了解Kafka技术细节的开发者。通过阅读该书,读者可以掌握Kafka的核心知识,进而在实际项目中正确构建Kafka应用场景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值