dataworks数据服务MYSQL_Dataworks实战5-数据集成之技术选型

开始之前,先聊下企业数据的整体架构吧。一般来说,业务系统的数据库有较大的生产压力,大多数的做法是在企业生产库后会追加1到2个只读库,负责实时同步主库数据。业务系统写入到只读库,查询数据从从库。同时为了减轻成本压力,从库不提供binlog日志能力。

337e5d719b3c

阿里巴巴的Dataworks作为一站式数据开发和数据治理的PASS平台,提供多样的数据集成能力,甚至提供了数据集成的解决方案。为完成数仓的ODS层的建设,存在离线全量ETL、离线增量+离线全量的ETL、实时增量+离线全量ETL、实时增量ETL4种方式。这里我们从技术上进行简单拆解,最终选择一个较为合适的方案,为简化起见我们的源端是RDS,即mysql数据库。

离线全量ETL:即使用Dataworks离线集成方式,配置源端mysql通过每日将全量数据抽取,并重写到ODS表,这种方式也叫"直连"方式。通过直连源端(一般都会选择从库-.-,没有从库的话请运维同事构建吧,主库拉挂了就可以祭天了)的方式,对于一般小表来说(即整体看该表整体数据量比较固定,日增量较少,如组织架构表)这种方式是可行的,且操作简单。遗憾的是:每日固定时间拉取的表数据,严格来说并不是某一个时间点的实际真是快照。如定时每天00:00:00同步数据,但实际任务调度时会因调度资源争夺等原因造成数据同步延迟(0点存在大量数据同步任务),实际落地到ODS的数据并非是00:00:00的快照。同时由于ODS数据同步的延迟,导致下游任务会停滞一段时间,数据的计算结果也会延迟一定时间,使用该方式之前需要从业务角度综合分析。对于大表来说,该方式有点慢性自杀的感觉,数据同步慢,下游计算延迟,拉挂了只读库会不会祭天我不知道,我只知道工作还得做,数据计算还得补回来,怎么解决呢?可以试试使用“离线增量+全量的ETL”的方式。

337e5d719b3c

离线增量+离线全量的ETL:在特定情况下,如解析FTP文件日志、TableStore增量日志时该方案是最佳方案,也可以处理关系型数据库RDS的场景,如对大表(如订单表,每天增量100w+)可以考虑首次进行数据的全量同步到MaxCompute里的全量表table_full,后续接入每日增量的数据同步到MaxCompute的增量表table_inc,在MaxCompute里完成数据合并并重写到table_full的最新分区里。具体实践:源端Mysql定义modify_time,数据每次修改会插入时都会更新该字段。定时抽取源端数据时增加过滤条件modify_time>start_time  and modify_time

337e5d719b3c

实时增量+离线全量ETL:工作原理与上述相同。唯一不同的是通过Mysql-binlog日志的方式实时写入,通过解析binlog日志里的日志时间戳,将该时间戳转为maxcompute增量表的分区字段,并根据日志的变更类型(新增、修改、删除)、日志顺序(record_id)与全量表进行数据合并。该方案的解决了离线全量ETL中数据快照不精确的问题,并可以感知到源端数据库物理删除数据的场景,可以说是相当完美的方案了,这也是我实践的方案,后续整体会围绕该方案细说。然而该方案对数据开发人员的技术要求较高。 如何采集binlog日志,如何进行数据合并,阿里Dataworks已有了解决方案,下一章我将会细说这块"数据集成之实时增量+离线全量ETL详解"。

337e5d719b3c

实时增量ETL:严格上来说,该方案是上个方案的子集,单拎出来主要基于业务考虑。数据计算场景需要获取源端完整数据的场景请使用上个方案。部分场景可能只需要关心当前增量的数据,不关心历史数据的只需要进行实时增量ETL。数据源也会多样化如mysql-binlog、rockmq等等。数据的老化策略也会不同。这块后期文章里会详细说明。

337e5d719b3c

喜欢的朋友请帮忙点赞,谢谢大家!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
一、项目简介 本项目教程以国内电商巨头实际业务应用场景为依托,同时以阿里云ECS服务器为技术支持,紧跟大数据主流场景,对接企业实际需求,对电商数仓的常见实战指标进行了详尽讲解,让你迅速长,获取最前沿的技术经验。 二、项目架构 版本框架:Flume、DateHub、DataWorks、MaxCompute、MySql以及QuickBI等; Flume:大数据领域被广泛运用的日志采集框架; DateHub:类似于传统大数据解决方案中Kafka的角色,提供了一个数据队列功能。对于离线计算,DataHub除了供了一个缓冲的队列作用。同时由于DataHub提供了各种与其他阿里云上下游产品的对接功能,所以DataHub又扮演了一个数据的分发枢纽工作; 据上传和下载通道,提供SQL及MapReduce等多种计算分析服务,同时还提供完善的安全解决方案; DataWorks:是基于MaxCompute计算引擎,从工作室、车间到工具集都齐备的一站式大数据工厂,它能帮助你快速完数据集、开发、治理、服务、质量、安全等全套数据研发工作; QuickBI & DataV:专为云上用户量身打造的新一代智能BI服务平台。 三、项目场景 数仓项目广泛应用于大数据领域,该项目技术可以高度适配电商、金融、医疗、在线教育、传媒、电信、交通等各领域; 四、项目特色 本课程结合国内多家企业实际项目经验。从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建基于阿里云服务器的大数据集群。采用阿里云ECS服务器作为数据平台,搭建高可用的、高可靠的Flume数据采集通道,运用阿里云DateHub构建中间缓冲队列并担任数据分发枢纽将数据推送至阿里自主研发的DataWorks对数据进行分层处理,采用MaxCompute作为处理海量数据的方案,将计算结果保存至MySQL并结合阿里的QuickBI工作做最终数据展示。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值