mysql 数据库分表三种方法

当一张的数据达到几百万时,你查询一次所花的时间会变多,如果有联合查询的话,我想有可能会死在那儿了。分表的目的就在于此,减小数据库的负担,缩短查询时间。

根据个人经验,mysql执行一个sql的过程如下:
1,接收到sql;2,把sql放到排队队列中 ;3,执行sql;4,返回执行结果。在这个执行过程中最花时间在什么地方呢?第一,是排队等待的时间,第二,sql的执行时间。其实这二个是一回事,等待的同时,肯定有sql在执行。所以我们要缩短sql的执行时间。

mysql中有一种机制是表锁定和行锁定,为什么要出现这种机制,是为了保证数据的完整性,我举个例子来说吧,如果有二个sql都要修改同一张表的同一条 数据,这个时候怎么办呢,是不是二个sql都可以同时修改这条数据呢?很显然mysql对这种情况的处理是,一种是表锁定(myisam存储引擎),一个 是行锁定(innodb存储引擎)。表锁定表示你们都不能对这张表进行操作,必须等我对表操作完才行。行锁定也一样,别的sql必须等我对这条数据操作完 了,才能对这条数据进行操作。如果数据太多,一次执行的时间太长,等待的时间就越长,这也是我们为什么要分表的原因。

二,分表

1,做mysql集群,例如:利用mysql cluster ,mysql proxy,mysql replication,drdb等等

有人会问mysql集群,根分表有什么关系吗?虽然它不是实际意义上的分表,但是它启到了分表的作用,做集群的意义是什么呢?为一个数据库减轻负担,说白 了就是减少sql排队队列中的sql的数量,举个例子:有10个sql请求,如果放在一个数据库服务器的排队队列中,他要等很长时间,如果把这10个 sql请求,分配到5个数据库服务器的排队队列中,一个数据库服务器的队列中只有2个,这样等待时间是不是大大的缩短了呢?这已经很明显了。所以我把它列 到了分表的范围以内,我做过一些mysql的集群:

linux mysql proxy 的安装,配置,以及读写分离

mysql replication 互为主从的安装及配置,以及数据同步

优点:扩展性好,没有多个分表后的复杂操作(php代码)

缺点:单个表的数据量还是没有变,一次操作所花的时间还是那么多,硬件开销大。

2,预先估计会出现大数据量并且访问频繁的表,将其分为若干个表

这种预估大差不差的,论坛里面发表帖子的表,时间长了这张表肯定很大,几十万,几百万都有可能。 聊天室里面信息表,几十个人在一起一聊一个晚上,时间长了,这张表的数据肯定很大。像这样的情况很多。所以这种能预估出来的大数据量表,我们就事先分出个N个表,这个N是多少,根据实际情况而定。以聊天信息表为例:

我事先建100个这样的表,message_00,message_01,message_02……….message_98,message_99.然 后根据用户的ID来判断这个用户的聊天信息放到哪张表里面,你可以用hash的方式来获得,可以用求余的方式来获得,方法很多,各人想各人的吧。下面用 hash的方法来获得表名:

  1. <?php   
  2. function get_hash_table($table,$userid) {   
  3.  $str = crc32($userid);   
  4.  if($str<0){   
  5.  $hash = "0".substr(abs($str), 0, 1);   
  6.  }else{   
  7.  $hash = substr($str, 0, 2);   
  8.  }   
  9.   
  10.  return $table."_".$hash;   
  11. }   
  12.   
  13. echo get_hash_table('message','user18991');     //结果为message_10   
  14. echo get_hash_table('message','user34523');    //结果为message_13   
  15. ?>  

说明一下,上面的这个方法,告诉我们user18991这个用户的消息都记录在message_10这张表里,user34523这个用户的消息都记录在message_13这张表里,读取的时候,只要从各自的表中读取就行了。

优点:避免一张表出现几百万条数据,缩短了一条sql的执行时间

缺点:当一种规则确定时,打破这条规则会很麻烦,上面的例子中我用的hash算法是crc32,如果我现在不想用这个算法了,改用md5后,会使同一个用户的消息被存储到不同的表中,这样数据乱套了。扩展性很差。

3,利用merge存储引擎来实现分表

我觉得这种方法比较适合,那些没有事先考虑,而已经出现了得,数据查询慢的情况。这个时候如果要把已有的大数据量表分开比较痛苦,最痛苦的事就是改代码, 因为程序里面的sql语句已经写好了,现在一张表要分成几十张表,甚至上百张表,这样sql语句是不是要重写呢?举个例子,我很喜欢举子

show engines;的时候你会发现mrg_myisam其实就是merge。

第一步,找到要分表的数据库 user

第二步,创建分表 user1,user2,user3,user4 …

CREATE TABLE IF NOT EXISTS `user1` (   

 `id` int(11) NOT NULL AUTO_INCREMENT,   

`name` varchar(50) DEFAULT NULL,   

`sex` int(1) NOT NULL DEFAULT '0',   

 PRIMARY KEY (`id`)   

 ) ENGINE=MyISAM  DEFAULT CHARSET=utf8 AUTO_INCREMENT=1 ;   

Create table user2 like user1;

Create table user3 like user1;

第三步:给所有的分表创建一个主表相当于一个盒子里边装着所有的分表,但是主表本身是没有数据的

DROP table IF EXISTS users;

create table users(

 `id` int(11) NOT NULL AUTO_INCREMENT,   

`name` varchar(50) DEFAULT NULL,   

`sex` int(1) NOT NULL DEFAULT '0',   

 PRIMARY KEY (`id`)   

)ENGINE=MERGE UNION=(user1,user2,user3) INSERT_METHOD=LAST CHARSET=utf8 AUTO_INCREMENT=1 ;

如果想在已經創建的merge表上添加新的union表。執行以下sql 
ALTER TABLE total UNION=(user1,user2,user3,user4,……)

第四步:分表操作(将数据分到分表中)

insert into user1(字段名) select 字段名 from member where id%表的张数=0;

insert into user2(字段名) select 字段名 from member where id%表的张数=1;

insert into user3(字段名) select 字段名 from member where id%表的张数=2

最后我们查看新的主表的数据,我们发现所有的数据都在,知识存在于分表中

与第二种分表方式结合:

只适用于在查表之前已经拿到用于分表的条件

比如用qq号码进行分表

在我们登录的适合已经有了qq号 假设是$num

$num = $_GET[‘qq’];

$size = 100 表张数为100

$iv = $num%$size; //获得偏移量,也就是在哪张表里

$tablename = ‘user_’.$iv

然后我们去对应的表里查询数据就可以了
 

优点:扩展性好,并且程序代码改动的不是很大

缺点:这种方法的效果比第二种要差一点

总结:

上面提到的三种方法,我实际做过二种,第一种和第二种。第三种没有做过,所以说的细一点。哈哈。
做什么事都有一个度,超过个度就过变得很差,不能一味的做数据库服务器集群,硬件是要花钱买的,也不要一味的分表,分出来1000表,mysql的存储归根到底还以文件的形势存在硬盘上面,一张表对应三个文件,1000个分表就是对应3000个文件,这样检索起来也会变的很慢。我的建议是

方法1和方法2结合的方式来进行分表

方法1和方法3结合的方式来进行分表

我的二个建议适合不同的情况,根据个人情况而定,我觉得会有很多人选择方法1和方法3结合的方式

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值