Hudi 的工作原理

59 篇文章 6 订阅

https://docs.amazonaws.cn/emr/latest/ReleaseGuide/emr-hudi-how-it-works.html

当 Hudi 与 Amazon EMR 结合使用时,您可以使用 Spark 数据源 API 或 Hudi DeltaStreamer 实用程序将数据写入数据集中。Hudi 将数据集组织到 basepath 下类似于传统 Hive 表的分区目录结构中。如何将数据布局为这些目录中的文件的具体细节取决于您选择的数据集类型。您可以选择“写入时复制 (CoW)”或“读取时合并 (MOM)”。

无论数据集类型如何,数据集中的每个分区都由其相对于 basepath 的 partitionpath 唯一标识。在每个分区中,记录分布到多个数据文件中。有关更多信息,请参阅 Apache Hudi 文档中的文件管理

Hudi 中的每个操作都有一个相应的提交,由一个称为 Instant 的单调递增的时间戳标识。Hudi 将对数据集执行的一系列所有操作保留为时间轴。Hudi 依靠此时间轴在读取器和写入器之间提供快照隔离,并支持回滚到前一个时间点。有关 Hudi 记录的操作和操作状态的更多信息,请参阅 Apache Hudi 文档中的时间轴

了解数据集存储类型:写入时复制与读取时合并

创建 Hudi 数据集时,可以指定数据集在写入时复制或读取时合并。

  • 写入时复制 (CoW) – 数据以列状格式存储 (Parquet),并且每次更新都会在写入过程中创建一个新版本的文件。CoW 是默认存储类型。

  • 读取时合并 (MOR) – 数据使用列式 (Parquet) 和基于行 (Avro) 的格式的组合进行存储。更新记录到基于行的增量文件中,并根据需要进行压缩以创建新版本的列式文件。

对于 CoW 数据集,每次更新记录时,包含该记录的文件都会使用更新后的值进行重写。对于 MoR 数据集,每次进行更新时,Hudi 仅写入已更改记录对应的行。MoR 更适合写入或更改繁重而读取量较少的工作负载。CoW 更适合更改频率较低但读取量繁重的工作负载。

Hudi 为访问数据提供三个逻辑视图:

  • 读取优化视图 – 提供来自 CoW 表的最新提交数据集和来自 MOR 表的最新压缩数据集。

  • 增量视图 – 提供 CoW 数据集中两个操作之间的更改流,以馈送给下游作业和提取、转换、加载 (ETL) 工作流。

  • 实时视图 – 通过内联合并列式和基于行的文件,从 MOR 表中提供最新提交的数据。

当您查询读取优化的视图时,查询将返回所有压缩数据,但不包括最新的增量提交。查询此数据可提供良好的读取性能,但忽略最新的数据。当您查询实时视图时,Hudi 会在读取时将压缩的数据与增量提交合并。最新的数据可用于查询,但合并的计算开销使查询性能降低。通过查询压缩数据或实时数据的功能,您可以在查询时在性能和灵活性之间进行选择。

有关在存储类型之间权衡的更多信息,请参阅 Apache Hudi 文档中的存储类型和视图 。

Hudi 在 MoR 的 Hive 元数据仓中创建两个表:一个具有您指定的名称的表(即读取优化视图)和一个附加了 _rt 的同名表(即实时视图)。您可以查询这两个表。

将 Hudi 数据集注册到您的元数据仓

当您向 Hive 元数据仓注册 Hudi 表时,您可以像对待任何其他表一样,使用 Hive、Spark SQL 或 Presto 查询 Hudi 表。此外,您可以通过将 Hive 和 Spark 配置为使用 AWS Glue Data Catalog 作为元数据仓来将 Hudi 与 AWS Glue 进行集成。对于 MoR 表,Hudi 将数据集注册为元数据仓中的两个表:一个具有您指定的名称的表(即读取优化视图)和一个附加了 _rt 的同名表(即实时视图)。

当您使用 Spark 创建 Hudi 数据集时,您可以通过将 HIVE_SYNC_ENABLED_OPT_KEY 选项设置为 "true" 并提供其他必需的属性来向 Hive 元数据仓注册 Hudi 表。有关更多信息,请参阅 使用 Hudi 数据集。此外,您可以使用 hive_sync_tool 命令行实用程序将 Hudi 数据集单独注册为元数据仓中的表。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
随着互联网的发展,数据的不断膨胀,从刚开始的关系型数据库到非关系型数据库,再到大数据技术,技术的不断演进最终是随着数据膨胀而不断改变,最初的数据仓库能解决我们的问题,但是随着时代发展,企业已经不满足于数据仓库,希望有更强大的技术来支撑数据的存储,包括结构化,非结构化的数据等,希望能够积累企业的数据,从中挖掘出更大的价值。基于这个背景,数据湖的技术应运而生。本课程基于真实的企业数据湖案例进行讲解,结合业务实现数据湖平台,让大家在实践中理解和掌握数据湖技术,未来数据湖的需求也会不断加大,希望同学们抓住这个机遇。项目中将以热门的互联网电商业务场景为案例讲解,具体分析指标包含:流量分析,订单分析,用户行为分析,营销分析,广告分析等,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。Apache Hudi代表Hadoop Upserts anD Incrementals,管理大型分析数据集在HDFS上的存储。Hudi的主要目的是高效减少摄取过程中的数据延迟。Hudi的出现解决了现有hadoop体系的几个问题:1、HDFS的可伸缩性限制 2、需要在Hadoop中更快地呈现数据 3、没有直接支持对现有数据的更新和删除 4、快速的ETL和建模 5、要检索所有更新的记录,无论这些更新是添加到最近日期分区的新记录还是对旧数据的更新,Hudi都允许用户使用最后一个检查点时间戳,此过程不用执行扫描整个源表的查询。 本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0、HudiClickHouseHadoop2.7.5 Hbase2.2.6Kafka2.1.0 Hive2.2.0HDFS、MapReduceSpark、ZookeeperBinlog、Canal、MySQLSpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASEVue.js、Nodejs、HighchartsLinux Shell编程课程亮点: 1.与企业接轨、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink4.Flink join 实战 5.Hudi数据湖技术6.集成指标明细查询 7.主流微服务后端系统 8.数据库实时同步解决方案 9.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 10.集成SpringCloud实现统一整合方案 11.互联网大数据企业热门技术栈 12.支持海量数据的实时分析 13.支持全端实时数据分析 14.全程代码实操,提供全部代码和资料 15.提供答疑和提供企业技术方案咨询企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。  

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值