目录
前言
日志收集分析平台是一个集Linux运维,python开发的高难度web项目。其中用到nginx反向代理服务器,filebeat收集日志,kafka中间件集群负责业务解耦,zookeeper对kafka进行管理,然后将数据交由消费者清洗存入数据库,再用python开发出web服务平台提取数据库字符段进行数据的监控、报警等功能。
1、准备好11台虚拟机搭建nginx和kafka集群
三台web服务器,两台nginx代理服务器,三台机器kafka集群,三台机器zookeeper集群
2、配置好静态ip地址:
/etc/sysconfig/network-scripts/
BOOTPROTO="none" none或者static 表示静态配置ip 。dhcp表示动态获得ip地址,通过dhcp服务器的分配。
NAME="ens33" 网络连接的名字
UUID="12b5a8c4-d319-4d70-ae1f-9d1fff3b2660" 网络连接的唯一标识,一个硬件会对应一个编号,这个编号自动生成,不需要修改
DEVICE="ens33" 设备名字
ONBOOT="yes" yes表示开机的时候激活这个网络连接 no 禁用这个网络连接
IPADDR=192.168.149.147 ip地址
PREFIX=24 子网掩码的长度为24 相当于 255.255.255.0
#NETMASK=255.2