基于Flume、Kafka、Spark的完整日志分析系统启动过程

这篇文章主要记录的日志分析系统相关软件的启动命令,有助于后面可以写自动化启动脚本

Hadoop

启动Hadoop和HDFS

$ start-dfs.sh
$ start-yarn.sh
Zookeeper

启动分布式协调服务Zookeeper,提供kafka的运行环境

$ zkServer.sh start zoo1.cfg
$ zkServer.sh start zoo2.cfg
$ zkServer.sh start zoo3.cfg
Nginx&Python3 Flask

提供靶机及web服务和web日志

$ sudo setenforce 0
$ systemctl start nginx
$ python3 ~/apps/xss_test_server.py
Flume & kafka

启动Flume采集日志,并用kafka测试日志流是否可以正常消费

$ ./bin/kafka-server-start.sh -daemon ./config/server-1.properties

$ ./bin/flume-ng agent --conf ./conf --conf-file ./conf/flume-log-conf.properties --name agent1 -Dflume.root.logger=INFO,console

$ 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值