带你读Mysql技术内幕[2]——InnoDB引擎概述

本文是自己的阅读《Mysql技术内幕——InnoDB存储引擎》的笔记,主要是为了将阅读和实践结合起来,途中会穿插自己的理解及自己工作中的实践。

1. InnoDB存储引擎概述

是目前mysql使用最广泛,具有的特点有:
行锁设计
支持MVCC
支持事务
支持外键等
一致性非锁定读取
……

2. InnoDB体系结构

一张图展示InnoDB体系结构
Innodb体系架构
Innodb有多个内存块,组成了一个大的内存池,主要负责的工作如下:
主要负责工作

  1. 维护所有进程/线程需要访问的多个内部数据结构
  2. 缓存磁盘上的数据, 方便快速读取, 同时在对磁盘文件修改之前进行缓存
  3. 重做日志(redo log)缓冲

2.3.1 后台线程

后台线程主要工作是负责刷新内存池中的数据,保证缓存池中的内存缓存是最新的数据。
默认情况下,InnoDB存储引擎的后台线程:

**后台线程主要组成: **

  • 1个master Thread(主要负责将缓存池中的数据异步刷新到磁盘中,保证数据的一致性,包括脏页的刷新,合并插入缓冲( INSERT BUFFER)、UNDO 页的回收等)

  • 4个IO(insert、log、read、write)
    Innodb内部采用了大量的异步IO来处理写IO请求,这样可以极大的提高I/O的性能。而IO Thread的工作主要负责IO请求的回调(call back).
    本身包括四种IO,(insert、log、read、write)

  • Purge Thread:主要用于回收已经清理的undo log(想想该log的作用),主要是为了减轻master thread的压力。
    可以通过如下命令来启动独立的Purge Thread:innodb_purge_threads = xx可以大于1,这样可以new多个Purge Thread来加快回收undo页。

  • Page Cleaner
    后续引进的,主要的目的是将之前版本中的脏页刷新操作放到一个单独的线程中完成,减轻Master Thread的工作负担,进一步提升InnoDB存储引擎的性能。

可以通过如下命令查看InnoDB的IO Thread情况
SHOW ENGINE INNODB STATUS\G;

   
   
  • 1
  • 2

2.3.2 内存

因为InnoDB存储引擎是基于磁盘存储的,并且是按照页的方式进行管理,但是呢,cpu速度比磁盘的读写速度压根不在一个数量级别,因此加入一层缓存池(内存)来调解中间的速度差矛盾。(看来整个计算机领域到处都体现了,缓存思想)

主要组成

1. 缓冲池(buffer pool)

主要作用:用于提高数据库的整体性能,为了协调CPU速度和磁盘速度相差较大的问题,比如查询数据时,如果是第一次查询则直接取磁盘中查,然后将结果缓存到缓存池中;下次再查询时,直接从缓存池中取,而不需要再读取速度较慢的磁盘。缓冲池大小与性能也息息相关,可以通过如下命令查看缓冲池大小:innodb_buffer_pool_size

- 缓冲池中数据页的类型有:索引页、数据页、undo页、插入缓冲(Insert Buffer)、自适应哈希、锁等
- 可以用如下命令查询缓冲池个数,因为可以建立多个缓冲池实例 ```SHOW VARIABLES LIKE 'innodb_buffer_pool_instances'\G;```。默认大小1

   
   
  • 1
  • 2

在这里插入图片描述
- 可以通过如下命令设置缓冲池大小SHOW VARIABLES LIKE 'innodb_buffer_pool_size'\G;

2. LRU list、Free List和Flush list

**主要介绍:InnoDB存储引擎是如何对内存区域进行管理的?**比如内存的淘汰策略是什么样的,如果回收管理内存啊

使用(LRU)最少使用算法对缓冲池进行管理。最频繁使用的元素放在链表的顶端,但是Innodb并不是直接将最近使用的元素放在顶端,而是通过设置一个`midpoint`来决定插入的位置,最新读取的位置先放到`midpoint`处,**默认配置中,该位置在LRU列表长度的5/8处。**

   
   
  • 1

SHOW VARIABLES LIKE 'innodb_old_blocks_pct'来控制midpoint

思考:为什么不采用朴素的LRU算法?

答:因为如果直接将读取的页放在LRU的首部,则SQL操作可能会使缓冲池中的页刷出,导致热点数据从缓冲池中移除,下次来查询时还是需要查询磁盘,从而影响缓冲池的效率。比如索引或者数据扫描操作时,通常访问的数据较多,而这些数据只是这次使用,并不是热点数据,如果每次将数据放到首部,则可能将热点数据给刷新出去,下次访问热点数据时,还是得去磁盘查询,这就没有起到缓存的作用了。

   
   
  • 1

为了解决上述问题,Innodb引入了innodb_old_blocks_time来管理LRU列表,用于表示页读取到mid位置后需要等待多久才会被加入到LRU列表的热端。

可以通过SHOW ENGINE INNODB STATUS来查看LRU列表及Free列表的使用情况。
LUR列表:用来管理已经读取的页
Free列表:用来管理保存空闲页

这里还可以看到一个关键的指标:mysql缓存命中率:Buffer pool hit rate
在这里插入图片描述
也可以通过如下命令来查看缓冲池的情况

SELECT POOL_ID,HIT_RATE,PAGES_MADE_YOUNG,PAGES_NOT_MADE_YOUNG
FROM information_schema.INNODB_BUFFER_POOL_STATS\G;

   
   
  • 1
  • 2

在这里插入图片描述

当LRU列表中页数据被修改之后,导致LRU中数据和磁盘中数据不一致,这种情况称为脏页。而通过CheckPoint将数据刷回磁盘中

3. 重做日志缓冲池(redo log buffer)

存储引擎一般将重做日志信息先放到这个缓冲区,然后按照一定频率将其刷新到重做日志文件中。该值由配置参考innodb_log_buffer_size控制,默认大小是8M

// 查看
SHOW VARIABLES LIKE 'innodb_log_buffer_size'\G';

   
   
  • 1
  • 2

一般出现下面三种情况会将重做日志缓冲中的内容刷新到外部磁盘中的重做日志文件中:

  • Master Thread每一秒将重做日志缓冲刷新到重做日志文件
  • 每个事物提交时,将重做日志缓冲刷新到日志文件中
  • 当重做日志缓冲池剩余空间小于1/2时,将重做日志缓冲刷新到日志文件中
4. 额外的内存池(additional memory pool)

对数据结构本身的内存进行分配时,就是利用额外的内存池

下图展示的内存数据结构
内存结构

3 CheckPoint技术

缓冲池主要的目的是解决CPU和磁盘速度的极大差距,每次修改都先修改缓冲池数据,缓冲池数据比磁盘数据新,为了能够高效解决该问题,提出该技术。

可以想一下,如果每次更新数据都将缓冲池中的数据刷新到磁盘中,性能必然会很低。

提出的原因:

  • 为了避免每一页发生变化都刷新到磁盘造成的大量开销。
  • 防止在从缓冲池将页的新版本刷新到磁盘时发生服务器宕机造成数据丢失。

为了解决以上的矛盾,当前事务数据库都采用 Write Ahead Log策略,即当事务提交时,先写重做日志,再修改日志。如果发生了宕机,则可以利用重做日志来恢复数据。

该技术解决的问题

  1. 缩短数据库恢复时间
  2. 缓冲池不够用时,将脏页刷新到磁盘(保证缓冲池和磁盘数据一致)
  3. 重做日志不可用时,刷新脏页。(因为重做日志不可能无限扩大,而是循环使用的)

每次数据库发生宕机时,数据库不需要重写所有的日志,只需要将CheckPoint之后的数据进行恢复即可,这样恢复的时间较短。
并且当缓冲池不够用时,会强制执行checkPoint,将脏页刷新到磁盘中。

InnoDB存储引擎有两种checkPoint

  • Sharp CheckPoint:数据库关闭的时候将所有的脏页都刷新到磁盘。默认的工作方式
  • Fuzzy CheckPoint:数据库运行的时候使用,将部分脏页刷新到磁盘

4. master Thread

将缓冲池中的数据异步刷新到磁盘中,保证数据的一致性。

3.1 master Thread 源码分析(1.x之前)

内部组成

  1. 主循环(loop)
  2. 后台循环(background loop)
  3. 刷新循环(flush loop)
  4. 暂停循环(suspend loop)

主循环
主要包括每秒钟的操作和每10秒钟的操作

void master_thread(){
loop:
for(int i= 0; i<10; i++){
   do thing once per second
   sleep 1 second if necessary
}
do things once per ten seconds
goto loop;
}

   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

每秒一次的操作包括:

  1. 日志缓冲刷新到磁盘,即使这个事务还没有提交(总是);
  2. 合并插入缓冲(可能,IO次数是否小于5次,如果小于5次,引擎认为服务器I/O压力较小,则开始合并操作);
  3. 至多刷新100个InnoDB的缓冲池中的脏页到磁盘(可能,判断当前缓冲池中脏页比例是否超过配置文件中innodb_max_dirty_pages_pct,如果超过,则刷入100脏页到磁盘);
  4. 如果当前没有用户活动,则切换到background loop(可能)。

每一秒中的伪代码

void master_thread(){
   goto loop;
loop:
for(int i = 0; i<10; i++){
   thread_sleep(1) // sleep 1 second
   do log buffer flush to disk				// 每一秒都执行刷新操作
   if (last_one_second_ios < 5 )			// io次数是否小于5次
      do merge at most 5 insert buffer
   if ( buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct )			// 脏页比率是否大于设定的值
      do buffer pool flush 100 dirty page
   if ( no user activity )				// 是否有用户活动
      goto backgroud loop
}
do things once per ten seconds
background loop:
   do something
   goto loop:
}

   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

接下来可以看每10秒钟的操作:

  1. 刷新100个脏页到磁盘(可能,判断过去10秒之内磁盘的IO操作是否小于200次,如果是,刷新到磁盘);
  2. 合并至多5个插入缓冲(总是);
  3. 将日志缓冲刷新到磁盘(总是);
  4. 删除无用的Undo页(总是)do full purge
  5. 刷新100个或者10%的脏页到磁盘(总是)(如果脏页比例超过70%,则刷新100页到磁盘,如果比例小于70%,则刷新10%到磁盘)。
  6. 产生一个检查点(总是)

主循环完整的伪代码

void master_thread(){
   goto loop;
loop:
// 每一秒的操作
for(int i = 0; i<10; i++){
   thread_sleep(1) // sleep 1 second
   do log buffer flush to disk
   if (last_one_second_ios < 5 )
      do merge at most 5 insert buffer
   if ( buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct )
      do buffer pool flush 100 dirty page
   if ( no user activity )
      goto backgroud loop
}
// 没10s的操作
if ( last_ten_second_ios < 200 )
   do buffer pool flush 100 dirty page
do merge at most 5 insert buffer
do log buffer flush to disk
do full purge
if ( buf_get_modified_ratio_pct > 70% )
   do buffer pool flush 100 dirty page
else
   buffer pool flush 10 dirty page
goto loop
background loop:
   do something
goto loop:
}

   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

接下来看后台循环
当前没有用户活动(数据库空闲时)或者数据库关闭(shutdown),就会切换到这个循环。
主要操作

  1. 删除无用的Undo页(总是);
  2. 合并20个插入缓冲(总是);
  3. 跳回到主循环(总是);
  4. 不断刷新100个页直到符合条件(可能,跳转到flush loop中完成)

flush loop中也没有什么事情可以做了,InnoDB存储引擎会切换到suspend__loop,将Master Thread挂起,等待事件的发生。若用户启用(enable)了InnoDB存储引擎,却没有使用任何InnoDB存储引擎的表,那么Master Thread总是处于挂起的状态。

master Thread所有的伪代码

void master_thread(){
   goto loop;
loop:
for(int i = 0; i<10; i++){
   thread_sleep(1) // sleep 1 second
   do log buffer flush to disk
   if ( last_one_second_ios < 5 )
      do merge at most 5 insert buffer
   if ( buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct )
      do buffer pool flush 100 dirty page
   if ( no user activity )
      goto backgroud loop
}
if ( last_ten_second_ios < 200 )
   do buffer pool flush 100 dirty page
do merge at most 5 insert buffer
do log buffer flush to disk
do full purge
if ( buf_get_modified_ratio_pct > 70% )
   do buffer pool flush 100 dirty page
else
   buffer pool flush 10 dirty page
goto loop
background loop:
do full purge
do merge 20 insert buffer
if not idle:
goto loop:
else:
   goto flush loop
flush loop:
do buffer pool flush 100 dirty page
if ( buf_get_modified_ratio_pct>innodb_max_dirty_pages_pct )
   goto flush loop
goto suspend loop
suspend loop:
suspend_thread()
waiting event
goto loop;
}

   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40

3.2 Innodb12.x版本之前的Master Thread

1.0.x版本的缺点:

  1. 无论何时 Innodb存储引擎最大只会刷新100个脏页到磁盘,合并20个插入缓冲,严重影响性能,如果服务器宕机,在恢复数据的时候刷回到磁盘时,则整个恢复持续时间较长。

针对该问题提供了一个参数,用于表示磁盘IO的吞吐量,参数为innodb_io_capacity默认为200。对于刷新到磁盘页的数量,会按照innodb_io_capacity的百分比来控制。规则如下:
1. 在合并插入缓冲时,合并插入缓冲的数量为 innodb_io_capacity的5%
2. 从缓冲区刷新脏页时,刷新脏页的数量为innodb_io_capacity

后来又引入了innodb_adaptive_flushing自适应刷新,会自动大概判断一个最合适的刷新数量

3.3 Innodb 1.2.x版本的Master Thread

针对Master Thread进行优化,伪代码如下:

if InnoDB is idle
    srv_master_do_idle_tasks();             //之前版本的每10s操作
else
    srv_master_do_active_tasks();           //之前每一秒的操作

   
   
  • 1
  • 2
  • 3
  • 4

同时对于刷新脏页的操作,从Master Thread线程中分离到一个单独的Page Cleaner Thread(专门用于刷新缓冲池到磁盘中)提高了系统的并发性。

5. InnoDB关键特征

关键特征包括:

  1. 插入缓冲(Insert Buffer)
  2. 两次写(double write)
  3. 自适应哈希索引
  4. 异步IO(Adync IO)
  5. 刷新邻接页

1. 插入缓冲

为什么需要插入缓冲,解决什么问题?

聚集索引的记录插入一般都是顺序进行磁盘I/O,对于非聚集索引,叶子节点的插入不是顺序的,需要离散地访问非聚集索引页,进行随机磁盘的I/O,插入性能变低。

怎么做的?

对于非聚集索引的插入或更新操作,不是每一次直接插入到索引页中,而是先判断插入的非聚集索引页是否在缓冲池中,若在,则直接插人;若不在,则先放人到一个Insert Buffer对象中,好似欺骗数据库这
个非聚集的索引已经插到叶子节点,而实际并没有,只是存放在另一个位置。然后再以一定的频率和情况进行Insert Buffer和辅助索引页子节点的merge(合并)操作,这时通常能将多个插入合并到一个操作中(因为在一个索引页中),这就大大提高了对于非聚集索引插入的性能。

使用Insert Buffer的两个条件:

  • 索引是辅助索引
  • 索引不是唯一的
    当满足以上两个条件时,InnoDB存储引擎会使用Insert Buffer,这样就能提高插入操作的性能了。
遗留了哪些问题?使用插入缓存的缺点

不过考虑这样一种情况:应用程序进行大量的插入操作,这些都涉及了不唯一的非聚集索引,也就是使用了Insert Buffer。若此时MySQL数据库发生了宕机,
这时势必有大量的Insert Buffer并没有合并到实际的非聚集索引中去。因此这时恢复可能需要很长的时间,在极端情况下甚至需要几个小时。

查看命令

show engine innodb status\G;

   
   
  • 1

在这里插入图片描述

2 Change Buffer

引入Insert Buffer、Delete Buffer 、Purge Buffer分别对INSERT DELETE UPDATE 进行缓冲,可以看做是Insert Buffer的升级版本,这些适用的对象仍然是非唯一的非聚集索引

show variables like 'innodb_change_buffer_max_size'\G;

   
   
  • 1

可以通过参数innodb_change_buffer_max_size来控制Change Buffer最大使用内存的数量,该值默认是25,表示最多使用1/4换缓冲池内存空间。
在这里插入图片描述

3 Insert Buffer的内部实现

Insert Buffer的使用场景:非唯一辅助索引的插入操作
Insert Buffer底层其实是一颗B+树
非叶子节点存放的是查询的search key(键值)

总结:Insert Buffer主要用于提升引擎性能。

2. 二次写(doubleWrite)

为什么用该技术?

当发生数据库宕机时,可能InnoDB存储引擎正在写入某个页到表中,而这个页只写了一部分,比如16B
的页,只写了前4KB,之后就发生了宕机,这种情况被称为部分写失效(partial page write)。
在InnoDB存储引擎未使用doublewrite技术前,曾经出现过因为部分写失效而导致数据丢失的情况。

解决了什么问题

解决的问题:提升数据页的可靠性。

下图是double write 结构
二次写结构

二次写基本流程:

  1. doublewrite有两部分组成,一部分是内存中的doublewritebuffer,大小为2M,
  2. 另外一部分物理磁盘上的共享表空间中连续的128个页,即两个区,大小同样为2M
  3. 当缓冲池的作业刷新时,并不直接写硬盘,而是通过memcpy函数将脏页先拷贝到内存中的doublewrite buffer
  4. 通过doublewrite buffer再分两次写,每次写入1M到共享表空间的物理磁盘上,然后马上调用fsync函数,同步磁盘。(由于doublewrite是连续的,属于顺序磁盘I/O,开销不是太大)
  5. 再将doublewrite中的数据写入到数据文件中

可以通过如下命令查看二次写的情况

SHOW GLOBAL STATUS LIKE 'innodb_dblwr%'\G;

   
   
  • 1

在这里插入图片描述

3. 自适应哈希 (智能)

为什么需要自适应hash?
哈希(hash) 是一种非常快的查找方法,在一般情况下这种查找的时间复杂度为0(1),即一般仅需要一次查找就能定位数据。而B+树的查找次数,取决于B+树的高度,在生产环境中,B+树的高度- -般为3~4层,故需要3~ 4次的查询。InnoDB存储引擎会监控对表上各索引页的查询。如果观察到建立哈希索引可以带来速度提升,则建立哈希索引,称之为自适应哈希索引(Adaptive Hash Index, AHI)。 AHI是通过缓冲池的B+树页构造而来,因此建立的速度很快,而且不需要对整张表构建哈希索引。InnoDB 存储引擎会自动根据访问的频率和模式来自动地为某些热点页建立哈希索引。

因为hash索引查找很快,如果可以灵活的建立hash索引对于查找数据有很大的帮助。

由于innodb不支持hash索引,但是在某些情况下hash索引的效率很高。
于是出现了adaptive hash index功能,innodb存储引擎会监控对表上索引的查找
如果观察到建立hash索引可以提高性能的时候,则自动建立hash索引。通过系统自定检测是否启动索引,不需要人工的介入。

可以通过 show engine innodb status\G 来查看自适应哈西索引的使用情况。
可以使用innodb_adaptive_hash_index来禁用和启用hash索引,默认开启。

缺点

由于hash本身的特性,hash索引只能进行等值查询,而无法进行范围查询。

4. 异步IO

为了提高磁盘操作性能,当前的数据库系统都是采用异步IO(AIO)的方式来处理磁盘操作。

在同步IO中,每次进行IO操作,都需要等待次操作结束才能继续进行的操作。
但是在异步IO中,用户可以在发出一个IO请求后立即发送另一个IO请求,当全部IO请求发送完毕后,等待所有的IO操作完成。

可以通过下面的命令来控制是否启用Native AIO
innodb_use_native_aio

5. 刷新临接页

工作原理:当刷新一个脏页时,InnoDB会检测该页所在区(extent)的所有页,如果是脏页,那么一起进行刷新。

6. 启动、关闭、恢复

关闭

nnodb_fast_shutdown 通常有三个数表示(0,1,2)

  • 0. 表示在MySQL数据库关闭时,InnoDB需要完成所有的full purgemerge insert buffer,并且将所有的脏页刷新回磁盘。这需要一些时间,有时甚至需要几个小时来完成。如果在进行InnoDB升级时,必须将这个参数调为0,然后再关闭数据库。
  • 1. 参数innodb fast shutdown的默认值,表示不需要完成上述的full purge和
    merge insert buffer操作,但是在缓冲池中的一些数据脏页还是会刷新回磁盘。
  • 2. 表示不完成full purge和merge insert buffer操作,也不将缓冲池中的数据脏页写回磁盘,而是将日志都写入日志文件。这样不会有任何事务的丢失,但是下次MySQL数据库启动时,会进行恢复操作(recovery)。

innodb_force_recovery 通常有(0-6)
0. 代表当发生需要恢复时,进行所有的恢复操作,当不能进行有效恢复时,如数据页
发生了corruption,MySQL数据库可能发生宕机(crash),并把错误写入错误日志中去。

总结

主要理解Innodb存储引擎的整体的概述,主要讲解了Master Thread和内存结构,又详细介绍了主要特性,每个关键特性的作用及含义。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值