走进大数据丨 ETL – 数据清洗过程

我们已经对数据清洗有了一定概念:“数据清洗确保无法辨认的数据不会进入数据仓库。无法辨认的数据将影响到数据仓库中通过联机分析处理(OLAP)、数据挖掘和关键绩效指标(KPI)所产生的报表。”数据清洗, 是整个数据分析过程中不可缺少的一个环节,其结果质量直接关系到模型效果和最终结论。

在实际操作中,数据清洗通常会占据分析过程的50%—80%的时间。所以数据清洗的过程就显得尤为重要,在下面的图上我们可以看到,数据清洗操作是在数据抽取完成之后,然而事实上,数据清洗的操作在整个ETL过程中都会有。比如,我们在数据抽取时会过滤掉某些字段,去除掉重复字段等;在数据加载时,我们会通过查询语法将部分不需要的信息剔除掉。这些都可以算是对数据的清洗。这样做的目的是降低我们数据清洗过程的复杂度,提高效率。

           

数据清洗的步骤大体可以分为这么几步:

预处理阶段:

  • 将数据导入处理工具。也就是我们数据的抽取过程,将数据导入到处理工具中。

  • 看数据。这里包含两个部分:一个是看元数据,包括字段解释、数据来源、代码表等等一切描述数据的信息;再有是抽取一部分数据,使用人工查看方式,对数据本身有一个直观的了解,

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大数据架构中的ET(Extract, Transform, Load是指从各种不数据源中提取数据,经过一系列的数据转换和加工操作,最终加载到目标系统中。以下是一个常见的大数据架构ETL设计的步骤: 1. 数据提取(Extract):从各种数据源中获取需要处理的数据。这些数据源可以是关系型数据库、日志文件、传感器数据等等。常见的提取方式包括基于SQL的查询、API调用、文件读取等。 2. 数据转换(Transform):对提取的数据进行清洗、规范化和转换操作,以满足目标系统的要求。数据转换过程可能包括数据清洗、格式转换、字段拆分、合并、计算衍生指标等操作。 3. 数据加载(Load):将转换后的数据加载到目标系统中。目标系统可以是关系型数据库、数据仓库、数据湖等。加载过程可能包括数据分区、索引创建、数据校验等操作。 在设计大数据架构ETL时,需要考虑以下几个方面: 1. 数据源选择:根据业务需求选择合适的数据源,并确定提取方式和频率。 2. 数据转换规则:根据目标系统的要求,设计合适的数据转换规则。可以使用编程语言(如Python、Scala)或者ETL工具(如Apache Spark、Apache Beam)来实现数据转换逻辑。 3. 并行处理:大数据处理通常需要并行处理以提高性能和效率。可以使用分布式计算框架(如Apache Hadoop、Apache Spark)来实现并行处理。 4. 容错和恢复机制:在设计ETL过程中,要考虑如何处理数据提取、转换和加载过程中的错误和异常情况,并设计相应的容错和恢复机制。 5. 数据质量保证:在ETL过程中,需要进行数据质量检查和校验,确保数据的准确性和完整性。 以上是关于大数据架构ETL设计的一些基本概念和注意事项,希望对你有帮助!如果有更具体的问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值