大数据课程——Flume日志收集
实验内容以及要求
如下图所示,节点1、节点2产生日志,节点1和节点2的日志最终流向节点3,并最终写入HDFS文件。节点1的Agent的Source类型为syslogtcp,采集日志信息通过用户编写的Client程序通过socket(假设端口号5640)发送到flume agent;节点2的日志信息来自于监听特别的日志文件夹(/home/hadoop/log)产生的事件。请部署Flume,并完成相应的配置,实现如下日志收集方案。
在后面的叙述当中,Centos01作为上图中的Agent3、Centos02作为Agent1、Centos03作为Agent2
随便说两句
2022年4月29日。距离上次更新已经很久很久了,很多以前做作业时候的细节已经想不起来了。所以可能只能简单的把自己存的作业记录copy上来而已。大家随便看看就好,遇到问题还是要自己花心思解决的,以前我也是个小菜鸡,对于作业里遇到的问题也不过是自己的个人理解,未必是正确的,希望大家还是有独立思考的意识。我的作业记录仅仅作为一个在你不知该怎么做,没有方向时候的一个参考!希望能帮助到大家。
问题总结
1、对架构要进行分析
对于给定的架构图,需要规划出几台服务器,