湖仓方案DeltaLake、Hudi、Iceberg功能对比


简介
DeltaLake
DeltaLake是一个致力于在数据湖之上构建湖仓一体架构的开源项目。
DeltaLake支持ACID事务,可扩展的元数据存储,在现有的数据湖(S3、ADLS、GCS、HDFS)之上实现流批数据处理的统一。
官网地址:https://delta.io
当前版本:1.1.0

Hudi
Hudi是新一代的流式数据湖平台,在开源的文件系统之上引入了数据库的表、事务、高效的更新/删除、索引、流式写服务、数据合并、并发控制等功能及特性。
官网地址:https://hudi.apache.org/
当前版本:0.10.0

Iceberg
Iceberg是一个用于处理海量分析数据集的开放表格式。支持 Spark, Trino, PrestoDB, Flink and Hive等计算引擎,操作Iceberg如SQL table一样。
官网地址:https://iceberg.apache.org (吐槽:官网打开真的很慢)
当前版本:0.12.1

功能对比

相同点
都支持update/delete
都支持ACID, 原子性、一致性、隔离性、持久性,避免垃圾数据的产生,保证了数据质量
都能支持主流的高可用存储HDFS、S3
都提供了对Spark的支持,数据的写入都需要一个Spark Job去完成。都是以java package(–jars)方式引入到Spark。
读写都是以java library的方式引入到相关的执行引擎(Spark/Hive/Presto/Flink),不需要启动额外的服务
都可以自行管理元数据,元数据保存在HDFS/S3
都支持Spark/Hive/Presto
都支持TimeLine


不同点
文件合并,Hudi支持自动合并,DeltaLake和Iceberg支持手动合并(额外定时调度)
数据清理,Hudi和DeltaLake和自动清理过期数据文件; Iceberg支持手动清理(额外定时调度)
文件格式:
DeltaLake支持Parquet的文件格式。
Hudi数据主要保存在Parquet文件,增量数据以行的方式写入Avro文件,合并操作会把指定时间范围内的Avro文件数据写入Parquet文件。
Iceberg 支持Parquet、Avro、ORC。
Hudi支持索引
Hudi 和 IceBerg支持Flink批流读写
部分功能描述


TimeLine
意思时间线,用于支持时间旅行(Time travel)。即根据用户的提供的时间戳,可以访问到历史某一事件点的数据快照。只要数据快照没有被清理掉,就可以被访问到。

Schema约束和演化
Schema约束(Schema Enforcement):是指源和目标表的字段的数据类型需要一致,严格时可要求字段的数量一致。

Schema演化(Schema Evolution):是指目标表可以根据源表的Schema变化而相应的变化,如增减字段,字段类型变更。一般不支持改变字段的顺序。

阅读相关
数据湖:《什么是数据湖》

什么是数据湖_白月蓝山的博客-CSDN博客
湖仓一体:《什么是湖仓一体》

什么是湖仓一体_白月蓝山的博客-CSDN博客_什么是湖仓一体

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值