./bin/zkServer.sh start
./bin/zkServer.sh stop
1、启动Kafka
bin/kafka-server-start.sh config/server.properties &
2、停止Kafka
bin/kafka-server-stop.sh
3、创建Topic
bin/kafka-topics.sh --create --zookeeper 118.178.254.35:2181 --replication-factor 1 --partitions 2(这里为1,则是一个partitions) --topic HHU_IDS_TCPUPD_CHK
4、查看已经创建的Topic信息
bin/kafka-topics.sh --list --zookeeper localhost:2181
5、发送消息
bin/kafka-console-producer.sh --broker-list 172.16.93.75:9092 --topic HHU_IDS_TCPUPD_CHK
6、接收消息
bin/kafka-console-consumer.sh --bootstrap-server 172.16.93.75:9092 --topic HHU_IDS_TCPUPD_CHK --from-beginning
{“orderId”:“002”,“price”:“80”}
earliest 当分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费。
latest 当分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据。
none 当该topic下所有分区中存在未提交的offset时,抛出异常。
消费者要从头开始消费某个topic的全量数据,需要满足2个条件(spring-kafka):
(1)使用一个全新的"group.id"(就是之前没有被任何消费者使用过);
(2)指定"auto.offset.reset"参数的值为earliest;