mysql 查询 写入 性能极致优化 3000万数据3分钟 深层次优化大数据量
前言:为什么说是极致优化,不要小瞧上面的3000万说的比较少,为啥,因为我们知道数据量不能代表一切,还要看字段的长度,和字段数量,这3000万数据 分化在60张表里面,核心表6 7张每张数据量大约在300w-800w,字段长度在60-200不等,并且大部分表内部包涵超长文本。这样你还觉得慢吗。背景:数据库迁移,sqlserver 将数据迁移至mysql。平行迁移。公司切换数据。优化方向一:(代码级别优化)优化点1:批量写入(大家应该都知道,但是这个批量写入还略有不同,区别在下面的优化点慢慢看)优化点
原创
2020-08-28 14:34:03 ·
2247 阅读 ·
3 评论