Hudi学习笔记2 - Hudi配置之FlinkSQL配置

23 篇文章 0 订阅

Flink Sql Configs

配置项是否必须默认值配置说明
pathYN/AHudi表的 base path,如果不存在会创建,否则应是一个已初始化成功的 hudi 表
read.end-commitYN/A
read.start-commitYN/A
read.tasksYN/A
write.tasksYN/A
write.partition.formatYN/A分区路径格式,仅 write.datetime.partitioning 为 true 是有效。两种默认值:1、yyyyMMddHH,当分区字段类型为 timestamp(3) WITHOUT TIME ZONE, LONG, FLOAT, DOUBLE, DECIMAL 是;2、yyyyMMdd,当分区字段类型为 DATE 和 INT 时。
write.bucket_assign.tasksYN/A
archive.max_commitsN50
archive.min_commitsN40
cdc.enabledNfalse
changelog.enabledNfalse
clean.async.enabledNtrue
clean.policyNKEEP_LATEST_COMMITS清理策略,可取值:KEEP_LATEST_COMMITS, KEEP_LATEST_FILE_VERSIONS, KEEP_LATEST_BY_HOURS.Default is KEEP_LATEST_COMMITS
clean.retain_commitsN30
clean.retain_file_versionsN5
clean.retain_hoursN24
clustering.async.enabledNfalse
clustering.delta_commitsN4
clustering.plan.partition.filter.modeNNONE可取值:NONE, RECENT_DAYS, SELECTED_PARTITIONS, DAY_ROLLING
clustering.plan.strategy.classNorg.apache.hudi.client.clustering.plan.strategy.FlinkSizeBasedClusteringPlanStrategy
clustering.tasksYN/A
clustering.schedule.enabledNfalse
compaction.async.enabledNtrue
compaction.delta_commitsN5
compaction.delta_secondsN3600
compaction.max_memoryN100
compaction.schedule.enabledNtrue
compaction.target_ioN512000
compaction.timeout.secondsN1200
compaction.trigger.strategyNnum_commits可取值:num_commits, time_elapsed, num_or_time
hive_sync.conf.dirYN/A
hive_sync.table_propertiesYN/A
hive_sync.assume_date_partitioningNfalse假定分区为 yyyy/mm/dd 格式
hive_sync.auto_create_dbNtrue自动创建不存在的数据库
hive_sync.dbNdefault
hive_sync.tableNunknown
hive_sync.table.strategyNALL
hive_sync.enabledNfalse
hive_sync.file_formatNPARQUET
hive_sync.jdbc_urlNjdbc:hive2://localhost:10000
hive_sync.metastore.urisN‘’Hive Metastore uris
hive_sync.modeNHMS
hive_sync.partition_fieldsN‘’
hive_sync.passwordNhive
hive_sync.support_timestampNtrue
hive_sync.use_jdbcNtrue
hive_sync.usernameNhive
hoodie.bucket.index.hash.fieldN桶(BUCKET)的 key,必须为 recordKey 的子集,或者就是 recordKey
hoodie.bucket.index.num.bucketsN4
hoodie.datasource.merge.typeNpayload_combine
hoodie.datasource.query.typeNsnapshot
hoodie.datasource.write.hive_style_partitioningNfalse
hoodie.datasource.write.keygenerator.typeNSIMPLE
hoodie.datasource.write.partitionpath.fieldN‘’
hoodie.datasource.write.recordkey.fieldNuuid
hoodie.datasource.write.partitionpath.urlencodeNfalse
hoodie.database.nameYN/A
hoodie.table.nameYN/A
hoodie.datasource.write.keygenerator.classYN/A
index.bootstrap.enabledNfalse
index.global.enabledNtrue
index.partition.regexN*
index.state.ttlN0.0
index.typeNFLINK_STATE取值有:BUCKET,FLINK_STATE,BLOOM,GLOBAL_BLOOM,GLOBAL_SIMPLE,HBASE,INMEMORY,SIMPLE,默认为 FLINK_STATE,详情参见 https://github.com/apache/hudi/blob/master/hudi-flink-datasource/hudi-flink/src/main/java/org/apache/hudi/configuration/FlinkOptions.java 或者 https://github.com/apache/hudi/blob/master/hudi-client/hudi-client-common/src/main/java/org/apache/hudi/config/HoodieIndexConfig.java
metadata.enabledNfalse
metadata.compaction.delta_commitsN10
partition.default_nameNHIVE_DEFAULT_PARTITION
payload.classNorg.apache.hudi.common.model.EventTimeAvroPayload
precombine.fieldNts
read.streaming.enabledNfalse
read.streaming.skip_compactionNfalse
read.streaming.skip_clusteringNfalse
read.utc-timezoneNtrue
record.merger.implsNorg.apache.hudi.common.model.HoodieAvroRecordMerger
record.merger.strategyNeeb8d96f-b1e4-49fd-bbf8-28ac514178e5
table.typeNCOPY_ON_WRITE指定表类型,可取:COPY_ON_WRITE 或 MERGE_ON_READ
write.batch.sizeN256.0
write.commit.ack.timeoutN-1
write.ignore.failedNfalse
write.insert.clusterNfalse
write.log.max.sizeN1024
write.log_block.sizeN128
write.log_block.sizeN100单位:MB
write.operationNupsert可取值:false、insert 或 upsert,默认 false 表示允许重复
write.precombineNfalse是否在 insert 和 upsert 前删除重复数据
write.parquet.block.sizeN120
write.rate.limitN0每秒写入的数据条数。默认 0 表示没有限制
write.retry.interval.msN2000
write.retry.timesN3
write.sort.memoryN128单位:MB
write.task.max.sizeN1024.0单位:MB
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值