mysql 批量数据插入很慢(kettle 输入输出组件) 性能优化办法

背景
最近在做数仓重构项目,遇到一些性能瓶颈,这里记录一下解决办法。

随着业务数据每天都在增加,几年前开发的etl任务开始跑不动了。大表一般是通过增量的方式插入,但是修复bug 或者每月/季度跑一次的情况 需要跑全量,原来的etl任务可能需要跑几个小时,甚至出现超时失败的情况。因此需要优化,下面介绍一些优化方法。(项目是用kettle做的,如果使用其他开发工具,也可以参考下面的思路)

1、配置数据库连接参数
2、去掉临时表 DDL的primary key
3、调整输出组件的数量
4、暂时关闭索引

优化方法

1、配置数据库连接参数
defaultFetchSize:5000
useCursorFetch : true 相当于告诉数据库,分批读取数据,每次打包5000条回来
rewriteBatchedStatements : true 插入数据的时候,批量插入
useServerPrepStmts : true 启动预编译
useCompression : true 客户端跟服务器之间的数据压缩传输

以kettle为例,配置方法如下:
在这里插入图片描述
测试结果:
配置参数前:在这里插入图片描述
配置参数后:
在这里插入图片描述
性能提升了80倍!

2、去掉DDL中的 primary key
在 etl 的过程中会用中间表来存放一些临时数据,这些中间表可以去掉 ddl中的 primary key,通过逻辑来保证唯一性,只在结果表中使用primary key。primary key会检查相关字段是否重复,从而降低插入速度。(下面的案例 读写字段多,且表输入sql很复杂,所以插入很慢)

测试结果如下:
在这里插入图片描述
去掉目标表primary key 后
在这里插入图片描述
性能提升了20倍!

3、调整 输出组件数量
如果输出组件还是慢,可以复制多个输出。具体操作:输出组件 右键-改变开始复制的数量
在这里插入图片描述

4、暂时关闭索引
维护索引数据需要大量额外的开销,因此全量数据插入前,可以先关掉索引,插入完毕再打开索引。
ALTER TABLE table_name DISABLE KEYS;
ALTER TABLE table_name ENABLE KEYS;
效果对比如下:
在这里插入图片描述
在这里插入图片描述
性能提高了4倍!

kettle 输入输出组件性能优化办法主要有以下几点: 1. 选择合适的输入输出格式:根据具体的业务需求和数据量大小,选择合适的输入输出格式。例如,当处理大规模数据时,可以选择使用二进制格式而非文本格式,因为二进制格式可以提高数据读写的速度。 2. 增加并行度:通过增加并行度来提高输入输出组件的性能。可以将输入输出组件划分为多个子任务,并行处理输入和输出操作。这样可以充分利用多核处理器和分布式计算资源,提高处理速度。 3. 使用合理的缓冲区大小:合理设置缓冲区大小可以减少频繁的读写操作,从而提高性能。需要根据输入输出组件的具体情况进行测试和调优,确定最佳的缓冲区大小。 4. 数据压缩与解压缩:对于大规模的输入输出操作,可以考虑使用数据压缩与解压缩技术来减少数据的传输大小,从而提升性能。常用的压缩算法有gzip、bzip2等。 5. 数据分片与分区:当输入数据较大无法一次性处理时,可以将数据进行分片或分区处理。这样可以将数据分块处理,提高处理速度。同时,可以根据数据的特点进行分区,利用分布式计算资源,实现更高效的处理。 总之,针对kettle输入输出组件性能优化,需要根据具体的场景和要求,选择合适的优化策略,从而充分利用计算资源,提高输入输出操作的速度和效率。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值