数据采集之用户行为日志采集

1.生产中的用户行为日志为前后端埋点产生,存在在日志服务器中, 在本项目中存储在hadoop102和hadoop103两台机器中。

2.同时进行日志采集的两台flume也分别在102和103的机器上,在flume组件的组件方面两台机器是一样的,使用的是
taildirSource(特点:支持断点续传)
kafkachannel 进行缓冲和聚合
另外还有一个ETL自定义拦截器负责数据清洗 通过fastjson 过滤脏数据
如果只是平常demo中一台flume就足够数据量不大
生产中数据量打,因为一台flume缓冲量不够,已启动可能oom
加个kafka进行缓冲,他是一个高吞吐量的消息中间件,并且后期如果接入实时需求
方便sparkStreaming接入kafka

3.通过flume传到kafka集群中,kafka中topic为topic_log

4.在hadoop104中的flume拿到kafka中的数据再往hdfs中上传
组件选型如下:
自定义timestamp拦截器(为了解决0点漂移问题)
零点漂移问题:前一天生成的数据,进到了我第二天的目录里面
零点漂移发生原因:如果我 6月14日23:59 有一条数据从日志服务器到第一层flume再到kafka再到第二层flume可能时间已经到了第二天了,这样6月14号的数据可能进进到6月15号的目录中了(flume用的是kafkasoucse,他会自动帮我们加一个时间戳KV,K=timestamp,V是当前服务器的系统时间)

kafkasource(从kafka中读取数据)
filechennel(基于磁盘)
hdfssink(需要上传到hdfs中)

流程描述在这里插入图片描述
附脚本说明
lg.sh为模拟102、103机器日志生成脚本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值