用户行为分析之离线数据采集

我们的数据从哪来?

互联网行业:网站、APP、系统(交互系统)。
传统行业:电信、上网、打电话、发短信等等。
数据源:网站、APP。
等等,这些用户行为都回向我们的后台发送请求各种各样的请求,和进行各种逻辑交互、交易和结账等等。

请求转发

网站/APP会发送请求到后台服务器,通常会有Nginx接受请求,然后进行转发。

后台服务器,例如Tomcat、Jetty

通常在面向大量用户和高并发(每秒请求量过万)时,都不是直接使用Tomcat来接收请求。而是使用Nginx来接收请求,并且后端介入Tomcat集群/jetty集群,来进行高并发下的负载均衡。
比如说,Nginx/Tomcat,经过适当配置之后,所有的请求数据都会以log的形式存储起来;或者接收请求的后台,也可以按照自己制定的的规范,没接收一个请求或者没执行一个逻辑,就往日志里发一条log。
到此为止,我们的后台每天就可以至少产生一份日志文件。

日志文件

日志文件(按照我们预先设定的格式)通常每天一份,当然也可以多分日志,因为有多个web服务器。
一个日志转移的工具,比如自己用Linux的crontab定时调度一个shell脚本/python脚本;或者自己用java开发一个后台服务,用quartz这样的架构进行定时调度。这个工具负责当天的所有日志的数据都采集起来,进行合并和处理等操作 ,然后整合成一份日志文件,转移到flume agent正在监控的文件夹中。

flume 监控日志文件

flume agent启动之后,可以实时的监控某个指定的文件,看是否有新的文件进来。只要发现有新的日志文件进来时,那么flume就会走后续的channel和sink。通常来说,sink都会配置为HDFS。
flume负责讲每天的日志传输到HDFS。

日志文件存储在HDFS之中

因为HDFS可以用来存储大数据。

数据清洗

HDFS中的原始日志数据会经过清洗,因为原始数据中可能很多是不符合预期的脏数据。
使用MapReduce开发自己的MR作业,可以用crontab来定时执行,也可以用Ooize或者bat京东美团自己开发的复杂、大型、分布式的调度系统,来承担全公司所有MapReduce/Hive作业的调度(对于大公司来说,可能每天除了负责数据清洗的MR作业之外,后续的建立数据仓库、进行数据的统计分析的Hive ETL可能高达上万个,上十万个,上百万等),针对HDFS中的原始日志数据清洗之后,写入HDFS的另外一个文件之中。

Hive

把HDFS清洗后的数据导入到Hive的某个表中,Hive可以使用动态分区,Hive使用分区表,每个份去放一天的数据。
Hive底层也是基于HDFS,作为一个大数据的数据仓库。数据仓库内部,再往后,其实就是一些数据仓库建模的ETL。ETL会将原始日志所在的一个表转化为几十个、几百个表,这些表就是我们的数据仓库。然后公司的统计分析人员就会根据数据仓库中的表,执行临时的或者每天定时的 Hive SQL ETL作业进行大数据的统计分析。
Spark/Hadoop/Storm,大数据平台/系统可能都会采用Hive中的数据仓库内部的表。

大数据平台/系统

我们的大数据平台/系统,其实通常来说,都会针对Hive中的数据进行开发。数据源都是来自Hive中的表,这些表都是经过大量的Hive SQL ETL以后建立起来的数据仓库,然后进行特殊的、符合业务需求的大数据平台。通过大数据平台来给公司的用户使用,来提供大数据的支持,推动公司的发展。

转载于:https://www.cnblogs.com/twodoge/p/10018195.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
一、项目简介 本项目教程以国内电商巨头实际业务应用场景为依托,同时以阿里云ECS服务器为技术支持,紧跟大数据主流场景,对接企业实际需求,对电商数仓的常见实战指标进行了详尽讲解,让你迅速成长,获取最前沿的技术经验。 二、项目架构 版本框架:Flume、DateHub、DataWorks、MaxCompute、MySql以及QuickBI等; Flume:大数据领域被广泛运用的日志采集框架; DateHub:类似于传统大数据解决方案中Kafka的角色,提供了一个数据队列功能。对于离线计算,DataHub除了供了一个缓冲的队列作用。同时由于DataHub提供了各种与其他阿里云上下游产品的对接功能,所以DataHub又扮演了一个数据的分发枢纽工作; 据上传和下载通道,提供SQL及MapReduce等多种计算分析服务,同时还提供完善的安全解决方案; DataWorks:是基于MaxCompute计算引擎,从工作室、车间到工具集都齐备的一站式大数据工厂,它能帮助你快速完成数据集成、开发、治理、服务、质量、安全等全套数据研发工作; QuickBI & DataV:专为云上用户量身打造的新一代智能BI服务平台。 三、项目场景 数仓项目广泛应用于大数据领域,该项目技术可以高度适配电商、金融、医疗、在线教育、传媒、电信、交通等各领域; 四、项目特色 本课程结合国内多家企业实际项目经验。从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建基于阿里云服务器的大数据集群。采用阿里云ECS服务器作为数据平台,搭建高可用的、高可靠的Flume数据采集通道,运用阿里云DateHub构建中间缓冲队列并担任数据分发枢纽将数据推送至阿里自主研发的DataWorks对数据进行分层处理,采用MaxCompute作为处理海量数据的方案,将计算结果保存至MySQL并结合阿里的QuickBI工作做最终数据展示。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值