mysql 读写高并发大数据表优化

原创 2015年07月09日 09:25:40
1.更新频繁尽量使用innode引擎,支持行级锁,降低锁粒度,提高并发量。
2.考虑使用mysql 主从做读写分离,可以利用主库更新,从库进行查询。分担数据库压力,提高并发。
3.考虑使用reids nosql类内存数据库进行读写分离。查询通过先redis查询,无结果再查询mysql,同时将mysql数据库查询存入redis。
4.利用mysql表分区(1-1024),减小表粒度,块式管理数据。可以提高块式查找数据。
5.利用mysql独立表空间,自动回收删除后的表空间(独立表空间不会自动回收、会持续增长),同时有效减小数据库存储文件,提高存储性能。

6.合理设计数据表索引,尽量利用主键更新,表更新频繁的话也会导致索引更新频繁,索引过多增加了开销,添加适当主键。

7.选择合适的索引,B+数索引是记录索引字段,可以通过查询索引可能达到数据库查询的效果(查询字段刚好是索引字段),如果字段较小而且不多的话可以考虑,可以部分匹配(组合索引)。而hash索引是对整条记录进行hash,查询必须匹配所有索引字段,但是索引存储数据较小。

8.合理的设计数据库的查询cache,减小数据库查询解析,提高查询效率和性能。

9.对大表可以进行分表和分库处理。一般采用对表主键hash值处理分成几个hash段,对每个hash段的数据存储在一个表中。每次存取都通过hash值觉得存储对应的表。

版权声明:本文为博主原创文章,未经博主允许不得转载。

mysql处理高并发,防止库存超卖

今天王总又给我们上了一课,其实mysql处理高并发,防止库存超卖的问题,在去年的时候,王总已经提过;但是很可惜,即使当时大家都听懂了,但是在现实开发中,还是没这方面的意识。今天就我的一些理解,整理一下...

mysql 高并发环境的解决方案

1)mysql 高并发环境解决方案  分库  分表  分布式  增加二级缓存。。。。。 2) 需求分析:互联网单位 每天大量数据读取,写入,并发性高 3) 现有解决方式:水平分库分表,由单...
  • isoleo
  • isoleo
  • 2016年05月27日 15:50
  • 7859

MySQL每秒57万的写入,带你飞~

一、需求 一个朋友接到一个需求,从大数据平台收到一个数据写入在20亿+,需要快速地加载到MySQL中,供第二天业务展示使用。 二、实现再分析 对于单表20亿, 在MySQL运维,说真的这块目前涉...
  • n88Lpo
  • n88Lpo
  • 2017年12月05日 00:00
  • 169

MySQL MyISAM/InnoDB高并发优化经验

最近做的一个应用,功能要求非常简单,就是 key/value 形式的存储,简单的 INSERT/SELECT,没有任何复杂查询,唯一的问题是量非常大,如果目前投入使用,初期的单表 insert 频率约...

大数据量下高并发同步的讲解(不看,保证你后悔)

首页 资讯 精华 论坛 问答 博客 专栏 群组 更多 ▼ 您还未登录 ! 登录 注册 betakoli 博客 微博 相册 收藏 留言 关于我   大数据...

Mysql一主多从和读写分离配置简记

近期开发的系统中使用MySql作为数据库,由于数据涉及到Money,所以不得不慎重。同时,用户对最大访问量也提出了要求。为了避免Mysql成为性能瓶颈并具备很好的容错能力,特此实现主从热备和读写分离。...

Mysql做到高并发几点注意事项

1、拆分大的DELETE或INSERT语句   如果你需要在一个在线的网站上去执行一个大的DELETE或INSERT查询,你需要非常小心,要避免你的操作让你的整个网站停止相应。因为这两个操作是会锁...

如何解决mysql读写效率

12321

MySQL的myisam解决并发读写解决方法

mysql的myisam解决并发读写解决方法MyISAM在读操作占主导的情况下是很高效的。可一旦出现大量的读写并发,同InnoDB相比,MyISAM的效率就会直线下降,而且,MyISAM和InnoDB...

MySQL-SQL插入性能优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:mysql 读写高并发大数据表优化
举报原因:
原因补充:

(最多只允许输入30个字)