数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据
log.retention.bytes和log.retention.hours任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖。
在server.properties里设置log.retention.hours=1
启动Kafka后,新建一个终端,发送helloworld1
[hadoop@Slave1 kafka]$ bin/kafka-topics.sh --create --topic timetest --replication-factor 1 --partitions 1 --zookeeper Slave1:2181
Created topic "timetest".
[hadoop@Slave1 kafka]$ bin/kafka-console-producer.sh --broker-list slave1:9092 --sync --topic timetest
[2015-12-06 23:42:09,372] WARN Property topic is not valid (kafka.utils.VerifiableProperties)
helloworld1
打开一个终端,用于接收数据
&l