Flink实战之FileSystem-parquet支持ZSTD压缩

本文介绍了在Flink中使用ZSTD压缩处理Parquet文件的实战经验,包括升级hadoop版本以支持ZSTD,解决遇到的NoClassDefException问题,以及通过parquet依赖JNI-ZSTD避免hadoop版本兼容性问题。此外,还提到了测试过程中遇到的JDK版本问题及其解决方案。
摘要由CSDN通过智能技术生成

前言

ZSTD压缩算法是现在最流行压缩算法了,有着高压缩比和压缩性能强的有点,已经被各大框架所使用。
目前hadoop 3.1.0版本已经支持ZSTD算法。所以可以使用Flink写HDFS时使用这个算法。具体如何操作请往下看

升级hadoop版本

Flink1.11已经支持hadoop 3.x+版本了,所以Flink依赖的hadoop shaded包版本不达标的需要升级。
由于从Flink1.11开始,官方已经不提供hadoop shaded支持,可以使用CLASS_PATH方式 参考
但是任然可以自己编译hadoop 3.1版本的shaded包,具体步骤如下:

  1. git clone https://github.com/apache/flink-shaded.git
  2. 切换到release-10.0,由于flink1.11 已经不再支持hadoop shaded包,所以需要我们自己打包
  3. 修改flink-shaded-hadoop-2-parent的pom.xml版本为11.0、hadoop.version 为3.1.0
  4. 修改flink-shaded-hadoop-2的pom.xml parent version为11.0、version为${hadoop.version}-11.0
  5. 修改flink-shaded-hadoop-2-uber的pom.xml parent version为11.0、version为 h a d o o p . v e r s i o n − 11.0 、 以 及 依 赖 的 f l i n k − s h a d e d − h a d o o p − 2 v e r s i o n 为 {hadoop.version}-11.0、以及依赖的flink-shaded-hadoop-2 version 为 hadoop.version11.0flinkshadedhadoop2version{hadoop.version}-11.0
  6. 在根目录下执行命令
    mvn clean install -DskipTests -Dcheckstyle.skip=true -Dhadoop.version=3.1.0
  7. 完成后将flink-shaded-hadoop-2-uber-3.1.0-11.0.jar放到flink lib目录下

hadoop集群支持

同时hadoop集群版本也要支持ZSTD,升级集群或者将ZSTD功能merge到低版本中。

SQL

现在就可以写flink任务了,DDL如下:

CREATE TABLE flink_filesystem_parquet_zstd (
    a BIGINT,
    b STRING,
    c STRING,
    d STRING,
    e STRING
) PARTITIONED BY (e) WITH (
  'connector'='filesystem',
  'path' = 'hdfs://xxx',
  'format'='parquet',
  'hadoop-user'='hadoop',
  'parquet.compression'='ZSTD'
);

遇到的问题

  1. NoClassDefException org.apache.hadoop.io.compress.ZStandardCodec
    原因:依赖的flink shaded hadoop包是2.7.2版本,这个类是hadoop-common 3.1.0中的类,所以需要升级hadoop包到3.1.0
  2. shaded 包升级之后执行报错
2020-10-21 15:08:14

java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsZstd()Z

  at org.apache.hadoop.util.NativeCodeLoader.buildSupportsZstd(Native Method)

  at org.apache.hadoop.io.compress.ZStandardCodec.checkNativeCodeLoaded(ZStandardCodec.java:64)

  at org.apache.hadoop.io.compress.ZStandardCodec.getCompressorType(ZStandardCodec.java:153)

  at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:150)

  at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:168)

  at org.apache.parquet.hadoop.CodecFactory$HeapBytesCompressor.<init>(CodecFactory.java:144)

  at org.apache.parquet.hadoop.CodecFactory.createCompressor(CodecFactory.java:206)

  at org.apache.parquet.hadoop.CodecFactory.getCompressor(CodecFactory.java:189)

  at org.apache.parquet.hadoop.ParquetWriter.<init>(ParquetWriter.java:285)

  at org.apache.parquet.hadoop.ParquetWriter$Builder.build(ParquetWriter.java:530)

  at org.apache.flink.formats.parquet.row.ParquetPb2AvroBuilder$FlinkParquetPb2AvroBuilder.createWriter(ParquetPb2AvroBuilder.java:212)

  at org
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值