Clickhouse填坑记4:Too many parts问题分析

在使用Clickhouse处理大数据同步时遇到'Too many parts'异常,该问题由大量小文件产生及Merge任务堆积引起。通过观察CPU使用率和分区数发现,频繁的小批量插入导致了此问题。解决方案是增大插入提交批次,例如从每100个提交一次改为每1万个提交一次,以减少文件碎片并降低CPU消耗。
摘要由CSDN通过智能技术生成

Clickhouse在进行大数据量同步时,感觉很爽,插入速度非常快,但是,在使用过程中却出现了几次“Too many parts”异常报错,搞得很痛苦,这里记录一下解决过程。

我这边采用的是Flink程序,实时将数据写入ClickHouse,在执行一段时间后,会提示“Too many parts”异常,如下异常如下:

ru.yandex.clickhouse.except.ClickHouseException: ClickHouse exception, code: 252, host: 10.10.4.1, port: 8114; Code: 252, e.displayText() = DB::Exception: Too many partitions for single INSERT block (more than 100). The limit is controlled by 'max_partitions_per_insert_block' setting. Large number of partitions is a common misconception. It will lead to severe negative
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值