1Kafka如何解决数据堆积
如何用kafka保证消息的有序性
Apache Kafka官方保证了partition内部的数据有效性(追加写、offset读);为了提高Topic的并发吞吐能力,可以提高Topic的partition数,并通过设置partition的replica来保证数据高可靠;
但是在多个Partition时,不能保证Topic级别的数据有序性。
但是对数据有序性有严格要求,那我建议:
创建Topic只指定1个partition,这样的坏处就是磨灭了kafka最优秀的特性。
所以可以思考下是不是技术选型有问题, kafka本身适合与流式大数据量,要求高吞吐,对数据有序性要求不严格的场景。