Hudi COW 两个用户同时写一张表会出现的问题

hudi 写文件时在timeline元数据目录 {basePath}/.hoodie 下的状态有三种

任何时间都可以处于以下状态之一

  1. REQUESTED - 表示已调度但尚未启动的操作。
  2. INFLIGHT - 表示当前正在执行该操作。
  3. COMPLETED - 表示在时间轴上完成了该操作。

写文件的时候会有以下步骤

  1. 先写入 t1.commit.requested 表示该commit已经调度,但是尚未启动
  2. 后写入 t1.inflight 表示该commit已经启动正在运行,该文件记录runtime的统计信息
  3. 后写入 t1.commit 表示该commit已经完成,该文件记录该该commit的提交信息

如果某个时间只有inflight, 没有commit 证明这个任务写失败,会rollback这个commit

正常commit:
在这里插入图片描述
rollback commit,被rollback的commit不会出现在该目录下:
在这里插入图片描述
看下面演示图:
在这里插入图片描述

下面是正在跑的A任务被B任务rollback的报错情况:
在这里插入图片描述
下面是B任务发现A任务缺少commit文件 将其rollback的情况:
在这里插入图片描述

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
SAPRK是一种强大的开源大数据处理框架,而Hudi是SAPRK的一个子项目,旨在为数据湖提供更新和增量记录的功能。使用SAPRK编Hudi可以通过以下步骤完成: 1. 初始化SAPRK环境:首先,您需要在您的SAPRK环境中将Hudi库添加为依赖项。这可以通过在SAPRK的启动脚本或在SAPRK应用程序的配置文件中添加相关的依赖项来完成。 2. 创建或加载数据集:使用SAPRK的数据读取API,您可以从各种数据源(如HDFS、S3等)中加载或创建一个数据集。将数据加载到SAPRK的DataFrame中。 3. 将DataFrame转换为Hudi:使用Hudi的API,您可以将SAPRK DataFrame转换为Hudi。在此步骤中,您需要指定Hudi所需的元数据,如名称、主键、分区策略等。 4. 插入或更新数据:一旦将DataFrame转换为Hudi,您可以使用SAPRK的DataFrame操作或Hudi的API来插入或更新数据。您可以通过添加、删除或修改DataFrame中的行来实现增量记录或数据更新。这些更改将自动映射到Hudi中。 5. 同步数据到数据湖:由于Hudi的设计目标是将数据湖用作底层存储,因此您可以使用Hudi的API将Hudi的更改同步到数据湖中。这将确保数据湖中的数据随着Hudi的更新而更新。 总之,使用SAPRK编Hudi是一个相对简单的过程。您只需初始化SAPRK环境,加载数据并将其转换为Hudi,然后使用SAPRK和Hudi的API进行数据插入和更新操作,并最终将更改同步到数据湖中。这样,您就可以利用Hudi提供的增量记录功能来管理和更新您的数据。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值