Hudi系列23:常见问题

一. 存储一直看不到数据

这个问题卡了我好久好久,差点都要放弃了,还是看视频和文档不仔细。

如果是 streaming 写, 请确保开启 checkpoint, Flink 的 writer 有 3中刷数据到磁盘的策略:

  1. 当某个 bucket在内存中积攒到一定大小 (可配, 默认 64MB)
  2. 当总的 buffer 大小积攒到 一定大小 (可配, 默认 1GB)
  3. 当checkpoint 触发, 将内存里的数据全部 flush出去
set execution.checkpointing.interval=600sec;

二. 数据有重复

如果是 COW 写, 需要开启参数 write.insert.drop.duplicates, COW 写每个 bucket的第一个文件默认是不去重的, 只有增量的数据会去重,全局去重需要开启该参数; MOR 写不需要开启任何参数, 定义好 primary key 后默认全局去重。 (注意: 从 0.10 版本开始, 该属性改名 write.precombine 并且默认为 true)

如果需要多 partition 去重,需要开启参数: index.global.enabled为true。(注意: 从 0.10 版本开始, 该属性改名 write.precombine 并且默认为 true)

索引 index 是判断数据重复的核心数据结构, index.state.ttl 设置了索引保存的时间, 默认 1.5 天,对于昌时间周期的更新, 比如更新一个月前的数据,需要将 index.state.ttl 调大(单位 天), 设置小于0代表永久保存。(注意: 从0.10 版本开始, 该属性默认为0)

三. NoSuchMethodError

3.1 问题描述

Flink SQL将MySQL数据写Hudi的MOR总是报如下错误:

Caused by: java.lang.NoSuchMethodError: org.apache.hudi.org.apache.avro.specific.SpecificRecordBuilderBase.<init>
(Lorg/apache/hudi/org/apache/avro/Schema;Lorg/apache/hudi/org/apache/avro/specific/SpecificData;)

报错:
image.png

3.2 解决方案

3.2.1 查看源码

编译后的源码查找:
image.png

Flink源码中查找:
image.png

image.png

原来是有同名的class:
而且这两个jar包下的class,内容还不一样
image.png
image.png

image.png

结果:
最终还是不行,一样的报错。

3.2.2 avro版本问题

在网上看了一些博客,说可能是avro的版本的问题

于是把 hadoop、hive、spark、flink的avro版本都修改为了最新的版本 avro-1.11.0.jar

https://www.coder.work/article/728416

image.png

结果:
最终还是不行,一样的报错。

3.2.3 hudi-flink1.14-bundle jar包的问题

最开始我看到报错前面都是 org.apache.hudi.org.apache.avro,我还以为是提示错误,后来想想也不至于,然后想到 hudi-flink1.14-bundle 这个jar包的问题,下载下来通过idea代开后看了下,果然和我想的一样。

image.png

找到了具体有问题的class,但是暂时也解决不了。
所以只能想着替换这个jar包。

替换jar包:
https://blog.csdn.net/dkl12/article/details/127621878
如果想同步 Hive 的话,就不能使用上面下载的包了,必须使用profileflink-bundle-shade-hive。 (先就这样吧,谁让我编译的有问题呢?)

https://repo1.maven.org/maven2/org/apache/hudi/hudi-flink1.14-bundle/0.12.0/hudi-flink1.14-bundle-0.12.0.jar

结果:
问题解决,困扰了长达两周的问题终于解决了。

四. Merge On Read 写只有 log 文件

4.1 问题描述

Merge On Read 默认开启了异步的compaction,策略是 5 个 commits 压缩一次, 当条件满足会触发压缩任务,另外,压缩本身因为耗费资源,所以不一定能跟上写入效率,可能有滞后。

可以先观察 log,搜索 compaction 关键词, 看是否有 compact 任务调度:
After filtering, Nothing to compact for 关键词说明本次 compaction stratefy是不做压缩。

MOR表只有log 没有parquet
image.png

4.2 解决方案1(测试未通过)

网上的案例,要求加上这个:
image.png

将jar包拷贝过去:
image.png

结果:
问题依旧,依然只有log文件,没有parquet文件。

4.2 解决方案2(测试通过:)

Hudi还支持离线手动Compaction,然后我就手工执行Compaction命令。

flink run -c org.apache.hudi.sink.compact.HoodieFlinkCompactor /home/flink-1.14.5/lib/hudi-flink1.14-bundle-0.12.1.jar --path hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8

image.png

终于有parquet文件了:
image.png

4.3 原来是配置的问题

我最开始创建Hudi表,将Compaction设置为了flase,改为true即可,无需手工进行compaction

原始脚本:

CREATE TABLE flink_hudi_mysql_cdc8(
    id BIGINT NOT NULL PRIMARY KEY NOT ENFORCED,
    name varchar(100)
  ) WITH (
   'connector' = 'hudi',
   'path' = 'hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8',
   'table.type' = 'MERGE_ON_READ',
   'changelog.enabled' = 'true',
   'hoodie.datasource.write.recordkey.field' = 'id',
   'write.precombine.field' = 'name',
   'compaction.async.enabled' = 'false'
);

修改后:

CREATE TABLE flink_hudi_mysql_cdc8(
    id BIGINT NOT NULL PRIMARY KEY NOT ENFORCED,
    name varchar(100)
  ) WITH (
   'connector' = 'hudi',
   'path' = 'hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8',
   'table.type' = 'MERGE_ON_READ',
   'changelog.enabled' = 'true',
   'hoodie.datasource.write.recordkey.field' = 'id',
   'write.precombine.field' = 'name',
   'compaction.async.enabled' = 'true'
);

参考:

  1. https://www.bilibili.com/video/BV1ue4y1i7na/
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Hudi建筑工作负载配置文件是一种用于配置和管理Hudi工作负载的文件。Hudi是一个用于处理大规模数据更新和增量处理的开源数据管理框架,因此工作负载配置文件对于确保良好的性能和效率非常重要。 工作负载配置文件包含了一系列参数和选项,用于定义Hudi工作负载的行为和属性。其中一些重要的配置包括: 1. 数据存储:可以选择将数据存储在HDFS或云存储中,并指定相应的路径。 2. 数据表类型:可以选择使用Hudi的不同表类型,如Copy on Write(COW)表和Merge on Read(MOR)表。 3. 数据分区:可以根据需要定义数据的分区方式,例如按日期、按地理位置等。 4. 压缩方式:可以选择使用不同的压缩算法来减小数据的存储空间。 5. 写入模式:可以选择使用增量模式或快照模式进行数据写入。 6. 缓存和索引选项:可以选择启用或禁用缓存和索引,以提高数据读取性能。 通过调整这些参数和选项,可以根据具体的需求优化Hudi的性能和效率。例如,如果需要快速的数据写入和查询,可以选择COW表和增量模式,并启用缓存和索引。如果对于数据的一致性和可查询性要求比较高,可以选择MOR表和快照模式,并使用压缩算法来减小存储空间。 除了配置文件,Hudi还提供了其他工具和API来管理工作负载,如数据清理、增量备份和查询优化等。因此,为了实现最佳的性能和效率,需要全面了解Hudi的不同配置和功能,并根据实际情况进行合理的配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值