kafka_2.9.1-0.8.1.1 集群的安装

kafka是一种高吞吐量的分布式发布订阅消息系统,她有如下特性:
  • 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
  • 高吞吐量:即使是非常普通的硬件kafka也可以支持每秒数十万的消息。
  • 支持通过kafka服务器和消费机集群来分区消息。
  • 支持Hadoop并行数据加载。
kafka的目的是提供一个发布订阅解决方案,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。
kafka分布式订阅架构如下图:

下面是最新的kafka-0.8.1.1 集群的安装具体步骤。

由于Kafka 依赖 Zookeeper集群,首先得确保你的机器上面ZK 集群 能够正常运行, 这里就不介绍ZK 集群的具体安装了。

这里我用到的是 三台机器, ip 分别是  192.168.80.100   192.168.80.101   192.168.80.102

192.168.80.100  这台机器上面的  kafka_2.9.1-0.8.1.1.tgz  解压之后 重命名为 kafka , 然后进入到这个目录  cd  /usr/local/kafka/config/      修改配置文件 server.properties 即可 具体修改的内容如下:

zookeeper.connect=192.168.80.100:2181,192.168.80.101:2181,192.168.80.102:2181

broker.id=100

port=9092

host.name=192.168.80.100

然后将整个 kafka 文件夹copy 到 另外两台机器上面 192.168.80.101   192.168.80.102

分别修改 cd  /usr/local/kafka/config/      配置文件 server.properties  具体修改的内容如下:

zookeeper.connect=192.168.80.100:2181,192.168.80.101:2181,192.168.80.102:2181

broker.id=101

port=9093

host.name=192.168.80.101

zookeeper.connect=192.168.80.100:2181,192.168.80.101:2181,192.168.80.102:2181

broker.id=102

port=9094

host.name=192.168.80.102

然后分别启动ZK 集群, 确保这3太机器zk 的进程都是开着的,然后分别每台机启动 kafka 

先 cd /kafka 根目录 然后执行下面 脚本

      bin/kafka-server-start.sh config/server.properties
启动之后创建topic       
      bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

查看topic脚本如下
    bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

输入数据    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
...
my test message 1
my test message 2
^C 
拉出数据
> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
...
my test message 1
my test message 2
^C


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
kafka_2.9.2-0.8.2.1.tgz 安装 liunx环境 安装jdk vi /etc/profile在末尾追加 JAVA_HOME JRE_HOME PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib source /etc/profile使环境变量立刻生效 安装kafka 解压 tar -xzvf kafka_2.8.0-0.8.1.tgz ;rm kafka_2.8.0-0.8.1.tgz; cd kafka_2.8.0-0.8.1 修改配置 Kafka默认开启JVM压缩指针,但只是在64位的HotSpot VM受支持,如果安装了32位的HotSpot VM,需要修改/bin/kafka-run-class.sh文件 KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true" 去除-XX:+UseCompressedOops参数 启动 bin/zookeeper-server-start.sh config/zookeeper.properties & bin/kafka-server-start.sh config/server.properties & 停止 bin/kafka-server-start.sh config/server.properties & bin/zookeeper-server-start.sh config/zookeeper.properties & create a topic bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 创建单partitions单replication的topic bin/kafka-topics.sh --list --zookeeper localhost:2181 查看topic 查看topic的分区 bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test 启动生产者 bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 启动消费者 bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口; 单机连通性能测试 运行producer bin/kafka-console-producer.sh --b
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值