linux下安装kafka

linux下安装kafka,首先确保zookeeper已经安装成功,想要安装zookeeper,必须先在linux中安装好jdk。

下面我们依次开始安装jdk,zookeeper,kafka。

一:安装jdk:

  1.检查linux环境是否安装了jdk可以用java -version或者rpm -qa|grep jdk 。

  2.下载jdk-8u221-linux-x64.tar.gz。

  3.下载到本地后用rz命令把安装包传到linux服务器的usr/local/java目录下。

  4.然后用解压缩命令解压缩tar -zxvf jdk-8u221-linux-x64.tar.gz。

  5.配置jdk环境变量:编辑/etc/下的profile文件: vi /etc/profile

   在文件末尾添加如下配置:

   export JAVA_HOME=/usr/local/java/jdk1.8.0_162

   export JRE_HOME=${JAVA_HOME}/jre

   export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

   export PATH=${JAVA_HOME}/bin:$PATH

   标红色路径为jdk解压路径,根据实际情况配置,保存配置文件退出。

  6.使/etc/profile生效  :source /etc/profile

  7.测试jdk安装是否成功: java -version

二:安装zookeeper:

  1.可以wget下载zookeeper-3.4.13.tar.gz,也可以下载到本机安装包,然后用rz命令传到服务器/usr/local/zookeeper路径下。

  2.解压缩,用解压缩命令,tar -zxvf zookeeper-3.4.13.tar.gz解压。

  3.编辑配置文件前看一下本机ip,及端口号占用。netstat -tunlp ,用于显示tcp,udp的端口和进程等相关情况。netstat -tunlp|grep 端口号,用于查看指定端口号的进程情况。

  hostname命令可以看本服务器ip地址。查看/tmp/zookeeper/data,/tmp/zookeeper/log目录,如果没有用mkdir命令创建。
  192.168.28.105服务器:创建myid文件:server ID和myid对应(三个服务器分别写入1,2,3)
  echo 1 >> /tmp/zookeeper/data/myid
  192.168.28.106服务器:创建myid文件:server ID和myid对应(三个服务器分别写入1,2,3)
  echo 2 >> /tmp/zookeeper/data/myid
  192.168.28.107服务器:创建myid文件:server ID和myid对应(三个服务器分别写入1,2,3)
  echo 3 >> /tmp/zookeeper/data/myid

  4.编辑配置文件:进入conf目录:cd zookeeper-3.4.13/conf,
  将zoo_sample.cfg这个文件复制为zoo.cfg (必须是这个文件名):cp zoo_sample.cfg zoo.cfg,
  进入zoo.cfg文件进行编辑:vim zoo.cfg,
  按 i 进入编辑模式,修改以下内容(修改之前看端口号是否被占用):
    tickTime=2000
    initLimit=10
    syncLimit=5
    dataDir=/tmp/zookeeper/data
    dataLogDir=/tmp/zookeeper/log
    clientPort=2181
    server.1=192.168.28.105:2888:3888
    server.2=192.168.28.106:2888:3888
    server.3=192.168.28.107:2888:3888
  参数说明

 

    tickTime:指 zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔。
    initLimit:用来指定zookeeper 集群中leader接受follower初始化连接时最长能忍受的心跳时间间隔数。若超过 指定个心跳的时间间隔leader还没有收到follower的响应,表明follower连接失败。
    syncLimit:指定 leader与follower之间请求和应答时间最长不能超过多少个 tickTime 。
    dataDir:快照日志的存储路径。
    dataLogDir:事物日志的存储路径,如果不配置该路径,当zk吞吐量较大的时,会严重影响zk的性能。
    clientPort:客户端连接 zookeeper 服务器的端口,默认为2181。
    server.1 这个1是服务器的标识也可以是其他的数字,这个标识要写到dataDir目录下面myid文件里。
    server.1=hostname:2888:3888,hostname后面的第一个端口2888主要用于leader和follower之间的通信,第二个端口3888主要用于选主。
  5.配置zookeeper环境变量,首先打开profile文件,vim /etc/profile 按i进入编辑模式,在文件末尾添加zookeeper环境变量
    #set zookeeper environment
    export ZK_HOME=/usr/local/zookeeper/zookeeper-3.4.13/
    export PATH=$ZK_HOME/bin:$PATH
  保存文件后,让该环境变量生效 source /etc/profile
  6.另外两台也一样安装
  7.启动zookeeper
    '/usr/local/zookeeper/zookeeper-3.4.13/bin/zkServer.sh start'
  8.查看zookeeper状态
    '/usr/local/zookeeper/zookeeper-3.4.13/bin/zkServer.sh status'
  9.停止zookeeper
    '/usr/local/zookeeper/zookeeper-3.4.13/bin/zkServer.sh stop'
三.安装kafka:
  1.可以wget下载kafka_2.11-1.0.0.tgz,也可以下载到本机安装包,然后用rz命令传到服务器/usr/local/kafka路径下。
  2.解压缩,用解压缩命令,tar -zxvf kafka_2.11-1.0.0.tgz解压。
  3.配置kafka环境变量,vim /etc/profile,按i进入编辑模式,在文件末尾添加kafka环境变量
    #set kafka environment
    export KAFKA_HOME=/usr/local/kafka/kafka_2.11-1.0.0
    PATH=${KAFKA_HOME}/bin:$PATH
  保存文件后,让该环境变量生效
    source /etc/profile
  4.192.168.28.105服务器,修改配置文件config下面的server.properties
    broker.id=1
    listeners = PLAINTEXT://192.168.28.105:9092
    log.dirs=/tmp/kafka/log
    zookeeper.connect=192.168.28.105:2181,192.168.28.106:2181,192.168.28.107:2181

  192.168.28.106服务器,修改配置文件server.properties
    broker.id=2
    listeners = PLAINTEXT://192.168.28.106:9092
    log.dirs=/tmp/kafka/log
    zookeeper.connect=192.168.28.107

  192.168.28.107服务器,修改配置文件server.properties
    broker.id=3
    listeners = PLAINTEXT://192.168.28.107:9092
    log.dirs=/tmp/kafka/log
    zookeeper.connect=192.168.28.105:2181,192.168.28.106:2181,192.168.28.107:2181
  主要修改一下四个地方:
    1) broker.id 需要保证每一台kafka都有一个独立的broker
    2) listeners = PLAINTEXT://当前虚拟机ip地址:9092
    3) log.dirs 数据存放的目录
    4) zookeeper.connect zookeeper的连接地址信息
  5.启动kafka(要确保zookeeper已启动),每台主机上分别启动kafka。
    /usr/local/kafka/kafka_2.11-1.0.0/bin/kafka-server-start.sh -daemon /usr/local/kafka/kafka_2.11-1.0.0/config/server.properties
  6.创建一个名称为test-topic-7的Topic,7个分区,并且复制因子为3,执行如下命令:
    /usr/local/kafka/kafka_2.11-1.0.0/bin/kafka-topics.sh -create -zookeeper 192.168.28.105:2181,192.168.28.106:2181,192.168.28.107:2181 --replication-factor 3 --partitions 7 --topic  test-topic-7
  7.查看创建的topic信息,进入kafka的bin目录下,执行如下命令:
    /usr/local/kafka/kafka_2.11-1.0.0/bin/kafka-topics.sh --describe --zookeeper 192.168.28.105:2181,192.168.28.106:2181,192.168.28.107:2181 --topic test-topic-7
  8.在其中一台服务器启动生产者(producer)
    /usr/local/kafka/kafka_2.11-1.0.0/bin/kafka-console-producer.sh --broker-list 192.168.28.105:9092,192.168.28.106:9092,192.168.28.107:9092 --topic test-topic-7
  9.在任意议一台服务器启动消费者(consumer),接受消息
    /usr/local/kafka/kafka_2.11-1.0.0/bin/kafka-console-consumer.sh --bootstrap-server 192.168.28.105:9092,192.168.28.106:9092,192.168.28.107:9092 --topic test-topic-7 --from-beginning

  10.如果consumer服务器接收到producer服务器输入的内容,则启动集群成功。

  执行生产者命令,在生产者命令窗口输入消息。

  执行消费者命令,在消费者命令窗口显示消息。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值