为什么加锁

  为什么加锁
  
  你正在读着你喜欢的女孩递给你的信,看到一半的时候,她的好闺蜜过来瞄了一眼(假设她会隐身术,你看不到她),她想把“我很喜欢你”改成“我不喜欢你”,刚把“很”字擦掉,“不”字还没写完,只写了一横一撇,这时候你正读到这个字,她怕你察觉到也就没继续往下写了,这时候你读到的这句话就是“我丆喜欢你”,这是什么鬼?!这位闺蜜乐了:没错,确实是鬼在整蛊你呢,嘿嘿!
  
  数据库也会闹鬼吗?很有可能!假设会话1正在读取表里的一条记录(还没读取完),另一个会话2突然插队过来更新表里的同一条记录(还没更新完),那么会话1拿到的数据就可能是错误的(还没更新完的内容和原内容混在一起,造成乱码,就像上面的“我丆喜欢你”)。
  
  怎么避免这种情况呢?加锁,当有一个人在读的时候,别人能读不能写,当有一个人在写的时候,别人不能读和写。
  
  所以,加锁是为了在并发操作的时候,能够确保数据的完整性和一致性。
  
  加锁的规则
  
  MyISAM锁的粒度是表级锁,在执行查询(SELECT)之前,尝试在表上面加读锁,在执行更新(UPDATE,DELETE,INSERT)之前,尝试在表上面加写锁。
  
  加写锁:
  
  如果在表上没有锁(读锁和写锁),在它上面放一个写锁。
  
  否则,把锁定请求放在写锁定队列中。
  
  加读锁:
  
  如果在表上没有写锁定,把一个读锁定放在它上面。
  
  否则,把锁定请求放在读锁定队列中。
  
  优先级:
  
  当一个锁定被释放时,锁定优先被写锁定队列中的线程得到,然后是读锁定队列中的线程。这意味着如果有大量的写操作,读操作将会一直等待,直到写完成。可以通过以下命令看到加锁的情况:
  
  SHOW STATUS LIKE 'table%';
  
  +-----------------------+-------+
  
  | Variable_name         | Value |
  
  +-----------------------+-------+
  
  | Table_locks_immediate | 42    |
  
  | Table_locks_waited    | 3     |
  
  +-----------------------+-------+
  
  Table_locks_immediate是加锁立刻执行成功的次数,Table_locks_waited是造成等待的加锁次数。另外,可以通过LOW_PRIORITY来改变优先级。
  
  实例分析
  
  开一个会话窗口1,输入下面的语句执行:
  
  CREATE TABLE `users`(
  
  `id` int(10) unsigned NOT NULL AUTO_INCREMENT,
  
  `name` varchar(15) NOT NULL,
  
  PRIMARY KEY (`id`)
  
  )ENGINE=MYISAM DEFAULT CHARSET=utf8 COMMENT='用户';
  
  INSERT INTO `users` VALUES (null, 'pigfly'),(null,'zhupp');
  
  为了模拟,我们手动执行LOCK TABLES语句把表锁住:
  
  LOCK TABLES `users` READ LOCAL;
  
  SELECT * FROM `users`;
  
  UPDATE `users` SET name='aa' where id=1;
  
  SELECT正常返回,UPDATE报错了,原因是当前表加了读锁,则当前会话只能执行读操作,不能执行更新操作。
  
  新开一个会话窗口2:
  
  INSERT INTO `users` VALUES (null, yunshenggw.cn/ 'zhupp');
  
  UPDATE `users` SET name='xxx' where id=1;
  
  可以看到插入执行成功,但是UPDATE操作被窗口1加的读锁阻塞了,我们回到窗口1执行:
  
  UNLOCK TABLES;
  
  这时候窗口2的更新语句马上返回更新成功了。
  
  为什么插入不会被读锁阻塞呢?原因是当表加了读锁并且表不存在空闲块的时候(删除或者更新表中间的记录会导致空闲块,OPTIMIZE TABLE可以清除空闲块),MYISAM默认允许其他线程从表尾插入。可以通过改变系统变量concurrent_insert(并发插入)的值来控制并发插入的行为。
  
  SHOW VARIABLES LIKE 'concurrent%';
  
  +-------------------+-------+
  
  | Variable_name     | Value |
  
  +-------------------+-------+
  
  | concurrent_insert | AUTO  |
  
  +-------------------+-------+
  
  Value的值:
  
  NEVER(0): 不允许并发插入
  
  AUTO(1): 表里没有空行时允许从表尾插入(默认)
  
  ALWAYS(2): 任何时候都允许并发插入
  
  注意:锁表的时候加了LOCAL关键字表示允许走并发插入的逻辑,具体是否可以并发插入还需要看是否满足concurrent_insert指定的条件,只有手动锁表的时候才需要指定LOCAL关键字。
  
  测试一下当表里有空闲块的情况,窗口1执行:
  
  DELETE FROM `users` WHERE id=1;
  
  LOCK TABLES `users` READ LOCAL;
  
  然后在窗口2执行:
  
  INSERT INTO `users` VALUES (null,www.yscylept.com 't1');
  
  果然被阻塞了。我们把并发插入的值改成2试试,在窗口1执行:
  
  UNLOCK TABLES;
  
  SET GLOBAL concurrent_insert=2;
  
  DELETE FROM `users` WHERE id=2;
  
  LOCK TABLES `users` READ LOCAL;
  
  然后在窗口2执行:
  
  INSERT INTO `users` VALUES (null, 't2');
  
  SELECT * FROM `users`;
  
  这一次没有被阻塞,插入成功了。
  
  Stream.of("d2", "a2", "b1", "b3", "c")
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(); // 转大写
    })
    .anyMatch(s -> {
        System.out.println("anyMatch: " + s);
        return s.startsWith("A"www.tscdeLu.cn); // 过滤出以 A 为前缀的元素
    });

// map:      d2
// anyMatch: D2
// map:      a2
// anyMatch: A2
终端操作 anyMatch()表示任何一个元素以 A 为前缀,返回为 true,就停止循环。所以它会从 d2 开始匹配,接着循环到 a2 的时候,返回为 true ,于是停止循环。

由于数据流的链式调用是垂直执行的,map这里只需要执行两次。相对于水平执行来说,map会执行尽可能少的次数,而不是把所有元素都 map 转换一遍。

四、中间操作顺序这么重要?
下面的例子由两个中间操作map和filter,以及一个终端操作forEach组成。让我们再来看看这些操作是如何执行的:

Stream.of("d2", "a2", "b1", "b3", "c")
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(); // 转大写
    })
    .filter(s -> {
        System.out.println("filter: " + s);
        return s.startsWith("A"); // 过滤出以 A 为前缀的元素
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出

// map:     d2
// filter:  D2
// map:     a2
// filter:  A2
// forEach: A2
// map:     b1
// filter:  B1
// map:     b3
// filter:  B3
// map:     c
// filter:  C
学习了上面一小节,您应该已经知道了,map和filter会对集合中的每个字符串调用五次,而forEach却只会调用一次,因为只有 "a2" 满足过滤条件。

如果我们改变中间操作的顺序,将filter移动到链头的最开始,就可以大大减少实际的执行次数:

Stream.of("d2", "a2", "b1", "b3", "c")
    .filter(s -> {
        System.out.println(www.yunsengyule.com "filter: " + s)
        return s.startsWith("a"www.enzuoylp.com); // 过滤出以 a 为前缀的元素
    })
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(www.tianscpt.com); // 转大写
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出

// filter:  d2
// filter:  a2
// map:     a2
// forEach: A2
// filter:  b1
// filter:  b3
// filter:  c
现在,map仅仅只需调用一次,性能得到了提升,这种小技巧对于流中存在大量元素来说,是非常很有用的。

接下来,让我们对上面的代码再添加一个中间操作sorted:

Stream.of("d2", "a2", "b1", "b3", "c")
    .sorted((s1, s2) -> {
        System.out.printf("sort: %s; %s\n", s1, s2);
        return s1.compareTo(s2); // 排序
    })
    .filter(s -> {
        System.out.println("filter: " + s);
        return s.startsWith("a"); // 过滤出以 a 为前缀的元素
    })
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(www.ysyl157.com/); // 转大写
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出
  
  开销小、加锁快、不会产生死锁,锁定力度大,发生锁冲突的概率最高,不适合高并发场景。
  
  性能优化
  
  对于并发插入,一般默认配置AUTO就可以了,如果有大量插入操作,可以把concurrent_insert设置为2,然后定期在流量低峰期执行OPTIMIZE TABLE来清除空闲块。
  
  调整优先级。
  
  在大量更新操作前手动锁表,这样锁表只执行了一次,不然每执行一次更新就锁一次表。
  
  存在大量更新操作造成等待,又要兼顾查询的时候,给max_write_lock_count设置一个低值,在写锁达到一定数量时允许执行挂起的读请求。
  
  参考资料
  
  MySQL锁定事宜
  
  高性能MySQL
  
  PHP核心技术与最佳实践

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值