kafka单机部署

 

kafka是一种高吞吐量的分布式发布订阅消息系统,kafka是linkedin用于日志处理的分布式消息队列,linkedin的日志数据容量大,但对可靠性要求不高,其日志数据主要包括用户行为

环境配置:
CentOS release 6.3 (Final)
jdk版本:jdk-6u31-linux-x64-rpm.bin
zookeeper版本:zookeeper-3.4.4

 

1、安装jdk并设置环境变量

jdk环境变量配置:

export JAVA_HOME=/usr/java/jdk1.6.0_31

export CLASSPATH=$JAVA_HOME/jre/lib:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

# source /etc/profile    使其生效

 

2、安装zookeeper

# vim conf/zoo.cfg

dataDir=/home/hadoop/storage/zookeeper    设置datadir

启动zookeeper:

# ./bin/zkServer.sh start

查看状zk态:

# ./bin/zkServer.sh status 

 

3、kafka 安装

  • 修改配置文件:# vim config/producer.properties

broker.id=0
port=9092
host.name=10.37.129.3
num.network.threads=2
num.io.threads=8
socket.send.buffer.bytes=1048576
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=2
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.retention.bytes=1073741824
log.segment.bytes=536870912
log.retention.check.interval.ms=60000
log.cleaner.enable=false
zookeeper.connect=10.37.129.3:2181 
zookeeper.connection.timeout.ms=1000000
  • 启动kafka:

[root@localhost kafka_2.8.0-0.8.0]# ./bin/kafka-server-start.sh /usr/local/src/kafka_2.8.0-0.8.0/config/server.properties &

 

  • 新建一个TOPIC

# ./kafka-topics.sh --create --topic kafkatopic --replication-factor 1 --partitions 1 --zookeeper localhost:2181

  • 检查是否创建主题成功 

# ./kafka-list-topic.sh --zookeeper localhost:2181
topic: test partition: 0 leader: 0 replicas: 0 isr: 0

 

  • 发送消息至KAFKA:

[root@localhost bin]# ./kafka-console-producer.sh --broker-list 192.168.1.141:9092 --sync --topic kafkatopic

This is the first message

这是另外一个消息

This is another news

 

另开一个终端,显示消息的消费

 [root@localhost bin]# ./kafka-console-consumer.sh --zookeeper 192.168.1.141:2181 --topic kafkatopic --from-beginning

This is the first message

这是另外一个消息

This is another news

 

 

*启动produce  
 ./bin/kafka-console-producer.sh --broker-list 10.10.224.12:9092  --topic test  
*启动consumer  
 ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic test  
 6.关闭kafka和zookeeper  
 ./kafka-server-stop.sh ../config/server.properties  
 ./zookeeper-server-stop.sh  
心得总结:  
1.produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口;  
2.必须先创建topic才能使用;  
3.topic本质是以文件的形式储存在zookeeper上的。