目录
1.引言
昨天用DataX做数据迁移的时候,遇到了一个频繁插入的问题,五分钟一次,一次才几十条数据(60多个字段)。结果就报插入频繁的错误。
Too many parts (301). Merges are processing significantly slower than inserts.
寻思也没有超过官方文档里的一秒一次的频次,怎么会报错呢?然后时间间隔扩大到十分钟,也是不行。
2.配置环境
clickhouse 21.9.1.7498
mysql:5.6
dataX 某二开版本
3.网上的其他方法
网上的很多方法都是大数据采用的,用的大部分是spark等工具,所以能调整批次大小和批次频率,公司规模较小不需要用到大数据工具,只是简单的数据集市。