日志收集平台day02:kafka集群搭建与配置

一、环境准备

  1. 准备好3台虚拟机搭建kafka集群

  2. 修改主机名
    第一台:hostnamectl set-hostname kafka01
    第二台:hostnamectl set-hostname kafka02
    第三台:hostnamectl set-hostname kafka03

  3. 配置好静态ip地址
    vim /etc/sysconfig/network-scripts/ifcfg-ens33
    例如:

    TYPE=Ethernet
    NAME=ens33
    UUID=15692761-d444-42ed-a0a9-3e98fefc909d
    DEVICE=ens33
    ONBOOT=yes
    IPADDR=192.168.22.2
    PREFIX=24
    GATEWAY=192.168.22.1
    DNS1=114.114.114.114
    

    三台都要配置好,要求互相能ping通。

  4. 每一台机器上都写好域名解析
    vim /etc/hosts

    192.168.22.2  nginx-kafka01
    192.168.22.3  nginx-kafka02
    192.168.22.4  nginx-kafka03
    
  5. 安装时间同步服务
    yum -y install chrony
    systemctl enable chronyd
    systemctl start chronyd
    设置时区:cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

  6. 关闭防火墙
    systemctl stop firewalld
    systemctl disable firewalld
    关闭selinux:
    vim /etc/selinux/config改为SELINUX=disabled
    selinux关闭 需要重启机器

二、安装

  1. 安装java和wget
    yum install java wget -y
  2. 安装kafka:
    wget https://mirrors.bfsu.edu.cn/apache/kafka/2.8.1/kafka_2.12-2.8.1.tgz
    tar xf kafka_2.12-2.8.1.tgz
  3. 安装zookeeper
    wget https://mirrors.bfsu.edu.cn/apache/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz
    tar -xf apache-zookeeper-3.6.3-bin.tar.gz

三、配置

3台都要配置

1、配置kafka

进入kafka文件夹,vim config /server.properties
例如192.168.22.2主机:

  1. 21行,broker.id=1 (broker的唯一标识)
  2. 32行,listeners=PLAINTEXT://nginx-kafka01:9092
  3. 62行,修改日志目录log.dirs=/data (/data目录必须为空,否则使用其他目录)
  4. 126行,zookeeper.connect=192.168.22.2:2181,192.168.22.3:2181,192.168.22.4:2181

2、配置zookeeper

  1. 进入/opt/apache-zookeeper-3.6.3-bin/confs

  2. cp zoo_sample.cfg zoo.cfg

  3. vim zoo.cfg

  4. 修改zoo.cfg, 添加如下三行:

    server.1=192.168.22.2:3888:4888
    server.2=192.168.22.3:3888:4888
    server.3=192.168.22.4:3888:4888
    

    3888和4888都是端口 一个用于数据传输,一个用于检验存活性和选举

  5. 创建/tmp/zookeeper目录 ,在目录中添加myid文件,文件内容就是本机指定的zookeeper id内容
    例如:在192.168.22.2机器上:
    echo 1 > /tmp/zookeeper/myid

四、运行服务

开启zk和kafka的时候,一定是先启动zk,再启动kafka。关闭服务的时候,kafka先关闭,再关闭zk。运行这两个软件需要由java环境。

  1. 进入zookeeper目录
    启动zookeeper:bin/zkServer.sh start(三台都要启动)
    查看启动后的状态:bin/zkServer.sh status
  2. 进入kafka目录
    启动kafka:(三台都要启动)
    进入kafka目录
    bin/kafka-server-start.sh -daemon config/server.properties
  3. 再进入zookeeper目录,查看成功运行了几台kafka服务器。
    bin/zkCli.sh
    [zk: localhost:2181(CONNECTED) 2] ls /brokersd/ids
    [1, 2, 3] #表示broker.id为1、2、3的kafka成功运行。

五,测试

其中的ip随便写(三台中的任意一个)。

  1. 创建topic
    bin/kafka-topics.sh --create --zookeeper 192.168.22.2:2181 --replication-factor 1 --partitions 1 --topic test
  2. 查看topic
    bin/kafka-topics.sh --list --zookeeper 192.168.22.2:2181
  3. 创建生产者
    bin/kafka-console-producer.sh --broker-list 192.168.22.3:9092 --topic test
    输入:
    >hello
    >world!
    
  4. 创建消费者
    bin/kafka-console-consumer.sh --bootstrap-server 192.168.22.4:9092 --topic test --from-beginning
    输出:
    hello
    world!
    
    如果打印出刚刚在生产者中输入的数据,说明环境搭建成功!
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值