3.理解TiDB执行计划

一、Explain
EXPLAIN  语句仅用于显示查询的执行计划,而不执行查询。 EXPLAIN ANALYZE  可执行查询,补充  EXPLAIN  语句。如果  EXPLAIN  的输出与预期结果不匹配,可考虑在查询的每个表上执行  ANALYZE TABLE 。
语句  DESC  和  DESCRIBE  是  EXPLAIN  的别名。 EXPLAIN <tableName>  的替代用法记录在  SHOW [FULL] COLUMNS FROM  下。
TiDB 支持  EXPLAIN [options] FOR CONNECTION connection_id ,但与 MySQL 的  EXPLAIN FOR  有一些区别,请参见  EXPLAIN FOR CONNECTION
 

EXPLAIN 输出格式

目前 TiDB 的  EXPLAIN  会输出 5 列,分别是: id , estRows , task , access object ,  operator info 。执行计划中每个算子都由这 5 列属性来描述, EXPLAIN  结果中每一行描述一个算子。每个属性的具体含义如下:
属性名
含义
id
算子的 ID,是算子在整个执行计划中唯一的标识。在 TiDB 2.1 中,ID 会格式化地显示算子的树状结构。数据从孩子结点流向父亲结点,每个算子的父亲结点有且仅有一个。
estRows
算子预计将会输出的数据条数,基于统计信息以及算子的执行逻辑估算而来。在 4.0 之前叫 count。
task
算子属于的 task 种类。目前的执行计划分成为两种 task,一种叫  root  task,在 tidb-server 上执行,一种叫  cop  task,在 TiKV 或者 TiFlash 上并行执行。当前的执行计划在 task 级别的拓扑关系是一个 root task 后面可以跟许多 cop task,root task 使用 cop task 的输出结果作为输入。cop task 中执行的也即是 TiDB 下推到 TiKV 或者 TiFlash 上的任务,每个 cop task 分散在 TiKV 或者 TiFlash 集群中,由多个进程共同执行。
access object
算子所访问的数据项信息。包括表  table ,表分区  partition  以及使用的索引  index (如果有)。只有直接访问数据的算子才拥有这些信息。
operator info
算子的其它信息。各个算子的 operator info 各有不同,可参考下面的示例解读。
 
二、TIDB执行计划

算子的执行顺序

TiDB 的执行计划是一个树形结构,树中每个节点即是算子。考虑到每个算子内多线程并发执行的情况,在一条 SQL 执行的过程中,如果能够有一个手术刀把这棵树切开看看,大家可能会发现所有的算子都正在消耗 CPU 和内存处理数据,从这个角度来看,算子是没有执行顺序的。
但是如果从一行数据先后被哪些算子处理的角度来看,一条数据在算子上的执行是有顺序的。这个顺序可以通过下面这个规则简单总结出来:
Build 总是先于 Probe 执行,并且 Build 总是出现在 Probe 前面。
这个原则的前半句是说:如果一个算子有多个孩子节点,孩子节点 ID 后面有 Build 关键字的算子总是先于有 Probe 关键字的算子执行。后半句是说:TiDB 在展现执行计划的时候,Build 端总是第一个出现,接着才是 Probe 端。
一些例子:
TiDB(root@127.0.0.1:test) > explain select * from t use index(idx_a) where a = 1;
+-------------------------------+---------+-----------+-------------------------+---------------------------------------------+
| id | estRows | task | access object | operator info |
+-------------------------------+---------+-----------+-------------------------+---------------------------------------------+
| IndexLookUp_7 | 10.00 | root | | |
| ├─IndexRangeScan_5(Build) | 10.00 | cop[tikv] | table:t, index:idx_a(a) | range:[1,1], keep order:false, stats:pseudo |
| └─TableRowIDScan_6(Probe) | 10.00 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+-------------------------------+---------+-----------+-------------------------+---------------------------------------------+
3 rows in set (0.00 sec)
这里  IndexLookUp_7  算子有两个孩子节点: IndexRangeScan_5(Build)  和  TableRowIDScan_6(Probe) 。可以看到, IndexRangeScan_5(Build)  是第一个出现的,并且基于上面这条规则,要得到一条数据,需要先执行  IndexRangeScan_5(Build)  得到一个 RowID 以后,再由  TableRowIDScan_6(Probe)  根据前者读上来的 RowID 去获取完整的一行数据。
 

Task 简介

目前 TiDB 的计算任务隶属于两种不同的 task:cop task 和 root task。cop task 是指使用 TiKV 中的 coprocessor 执行的计算任务,root task 是指在 TiDB 中执行的计算任务。
SQL 优化的目标之一是 将计算尽可能地下推到 TiKV 中执行 。TiKV 中的 coprocessor 能支持大部分 SQL 内建函数(包括聚合函数和标量函数)、SQL  LIMIT  操作、索引扫描和表扫描。但是,所有的 Join 操作都只能作为 root task 在 TiDB 上执行。
 

Access Object 简介

算子所访问的数据项信息。包括表  table ,表分区  partition  以及使用的索引  index (如果有)。只有直接访问数据的算子才拥有这些信息。
 

范围查询

在 WHERE/HAVING/ON 条件中,TiDB 优化器会分析主键或索引键的查询返回。如数字、日期类型的比较符,如大于、小于、等于以及大于等于、小于等于,字符类型的 LIKE 符号等。
值得注意的是,TiDB 目前只支持比较符一端是列,另一端是常量,或可以计算成某一常量的情况,类似  year(birth_day) < 1992  的查询条件是不能利用索引的。还要注意应尽可能使用同一类型进行比较,以避免引入额外的 cast 操作而导致不能利用索引,如  user_id = 123456 ,如果 user_id 是字符串,需要将 123456 也写成字符串常量的形式。
针对同一列的范围查询条件使用 AND 和 OR 组合后,等于对范围求交集或者并集。对于多维组合索引,可以写多个列的条件。例如对组合索引 (a, b, c),当 a 为等值查询时,可以继续求 b 的查询范围,当 b 也为等值查询时,可以继续求 c 的查询范围;反之,如果 a 为非等值查询,则只能求 a 的范围。
2.1如何阅读扫表的执行计划
真正执行扫表(读盘或者读 TiKV Block Cache)操作的算子有如下几类:
  • TableFullScan :这是大家所熟知的 “全表扫” 操作
  • TableRangeScan :带有范围的表数据扫描操作
  • TableRowIDScan :根据上层传递下来的 RowID 精确地扫描表数据
  • IndexFullScan :另一种“全表扫”,只不过这里扫的是索引数据,不是表数据
  • IndexRangeScan :带有范围的索引数据扫描操作
TiDB 会汇聚 TiKV/TiFlash 上扫描的数据或者计算结果,这种“数据汇聚”算子目前有如下几类:
  • TableReader :将 TiKV 上底层扫表算子 TableFullScan 或 TableRangeScan 得到的数据进行汇总。
  • IndexReader :将 TiKV 上底层扫表算子 IndexFullScan 或 IndexRangeScan 得到的数据进行汇总。
  • IndexLookUp :先汇总 Build 端 TiKV 扫描上来的 RowID,再去 Probe 端上根据这些 RowID 精确地读取 TiKV 上的数据。Build 端是 IndexFullScan 或 IndexRangeScan 类型的算子,Probe 端是 TableRowIDScan 类型的算子。
  • IndexMerge :和 IndexLookupReader 类似,可以看做是它的扩展,可以同时读取多个索引的数据,有多个 Build 端,一个 Probe 端。执行过程也很类似,先汇总所有 Build 端 TiKV 扫描上来的 RowID,再去 Probe 端上根据这些 RowID 精确地读取 TiKV 上的数据。Build 端是 IndexFullScan 或 IndexRangeScan 类型的算子,Probe 端是 TableRowIDScan 类型的算子。
 

表数据和索引数据

TiDB 的表数据是指一张表的原始数据,存放在 TiKV 中。对于每行表数据,它的 key 是一个 64 位整数,称为 RowID。如果一张表存在 int 类型的主键,TiDB 会把主键的值当作表数据的 RowID,否则由系统自动生成 RowID。表数据的 value 由这一行的所有数据编码而成。在读取表数据的时候,可以按照 RowID 递增的顺序返回。
TiDB 的索引数据和表数据一样,也存放在 TiKV 中。它的 key 是由索引列编码的有序 bytes,value 是这一行索引数据对应的 RowID,通过 RowID 可以读取这一行的非索引列。在读取索引数据的时候,TiKV 会按照索引列递增的顺序返回,如果有多个索引列,首先保证第 1 列递增,并且在第 i 列相等的情况下,保证第 i + 1 列递增。
 

IndexLookUp 示例

mysql> explain select * from t use index(idx_a);
+-------------------------------+----------+-----------+-------------------------+--------------------------------+
| id | estRows | task | access object | operator info |
+-------------------------------+----------+-----------+-------------------------+--------------------------------+
| IndexLookUp_6 | 10000.00 | root | | |
| ├─IndexFullScan_4(Build) | 10000.00 | cop[tikv] | table:t, index:idx_a(a) | keep order:false, stats:pseudo |
| └─TableRowIDScan_5(Probe) | 10000.00 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+-------------------------------+----------+-----------+-------------------------+--------------------------------+
3 rows in set (0.00 sec)
这里  IndexLookUp_6  算子有两个孩子节点: IndexFullScan_4(Build)  和  TableRowIDScan_5(Probe) 。可以看到, IndexFullScan_4(Build)  执行索引全表扫,扫描索引 a 的所有数据,因为是全范围扫,这个操作将获得表中所有数据的 RowID,之后再由  TableRowIDScan_5(Probe)  根据这些 RowID 去扫描所有的表数据。可以预见的是,这个执行计划不如直接使用 TableReader 进行全表扫,因为同样都是全表扫,这里的 IndexLookUp 多扫了一次索引,带来了额外的开销。
其中对于扫表操作来说,explain 表中的 operator info 列记录了读到的数据是否是有序的,如上面例子  IndexFullScan  算子中的  keep order:false  表示读到的数据是无序的。而 operator info 中的  stats:pseudo  表示可能因为没有统计信息,或者统计信息过旧,不会用统计信息来进行估算。对于其他扫表操作来说,operator info 所含有的信息类似。
 

IndexMerge 示例

IndexMerge  是 TiDB v4.0 中引入的一种对表的新访问方式。在这种访问方式下,TiDB 优化器可以选择对一张表使用多个索引,并将每个索引的返回结果进行合并。在某些场景下,这种访问方式能够减少大量不必要的数据扫描,提升查询的执行效率。
mysql> explain select * from t where a = 1 or b = 1;
+-------------------------+----------+-----------+---------------+--------------------------------------+
| id | estRows | task | access object | operator info |
+-------------------------+----------+-----------+---------------+--------------------------------------+
| TableReader_7 | 8000.00 | root | | data:Selection_6 |
| └─Selection_6 | 8000.00 | cop[tikv] | | or(eq(test.t.a, 1), eq(test.t.b, 1)) |
| └─TableFullScan_5 | 10000.00 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+-------------------------+----------+-----------+---------------+--------------------------------------+
mysql> set @@tidb_enable_index_merge = 1;
mysql> explain select * from t use index(idx_a, idx_b) where a > 1 or b > 1;
+--------------------------------+---------+-----------+-------------------------+------------------------------------------------+
| id | estRows | task | access object | operator info |
+--------------------------------+---------+-----------+-------------------------+------------------------------------------------+
| IndexMerge_16 | 6666.67 | root | | |
| ├─IndexRangeScan_13(Build) | 3333.33 | cop[tikv] | table:t, index:idx_a(a) | range:(1,+inf], keep order:false, stats:pseudo |
| ├─IndexRangeScan_14(Build) | 3333.33 | cop[tikv] | table:t, index:idx_b(b) | range:(1,+inf], keep order:false, stats:pseudo |
| └─TableRowIDScan_15(Probe) | 6666.67 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+--------------------------------+---------+-----------+-------------------------+------------------------------------------------+
例如,在上述示例中,过滤条件是使用  OR  条件连接的  WHERE  子句。在启用  IndexMerge  前,每个表只能使用一个索引,不能将  a = 1  下推到索引  a ,也不能将  b = 1  下推到索引  b 。当  t  中存在大量数据时,全表扫描的效率会很低。针对这类场景,TiDB 引入了对表的新访问方式  IndexMerge 。
在  IndexMerge  访问方式下,优化器可以选择对一张表使用多个索引,并将每个索引的返回结果进行合并,生成以上示例中后一个  IndexMerge  的执行计划。此时的  IndexMerge_16  算子有三个子节点,其中  IndexRangeScan_13  和  IndexRangeScan_14  根据范围扫描得到符合条件的所有  RowID ,再由  TableRowIDScan_15  算子根据这些  RowID  精确地读取所有满足条件的数据。
其中对于  IndexRangeScan / TableRangeScan  一类按范围进行的扫表操作, EXPLAIN  表中  operator info  列相比于其他扫表操作,多了被扫描数据的范围这一信息。比如上面的例子中, IndexRangeScan_13  算子中的  range:(1,+inf]  这一信息表示该算子扫描了从  1  到正无穷这个范围的数据。
注意:
目前,TiDB 的  IndexMerge  特性在 TiDB 4.0.0-rc.1 版本中默认关闭。同时 4.0 版本中的  IndexMerge  目前支持的场景仅限于析取范式( or  连接的表达式),暂不支持合取范式( and  连接的表达式)。开启  IndexMerge  特性有以下方法:
  • 设置系统变量  tidb_enable_index_merge  为 1
  • 在查询中使用 SQL Hint  USE_INDEX_MERGE
SQL Hint 的优先级高于系统变量。
 

2.2如何阅读聚合的执行计划

TiDB 的聚合算法包括如下两类:
  • Hash Aggregate
  • Stream Aggregate

Hash Aggregate 示例

TiDB 上的 Hash Aggregation 算子采用多线程并发优化,执行速度快,但会消耗较多内存。下面是一个 Hash Aggregate 的例子:
TiDB(root@127.0.0.1:test) > explain select /*+ HASH_AGG() */ count(*) from t;
+---------------------------+----------+-----------+---------------+---------------------------------+
| id | estRows | task | access object | operator info |
+---------------------------+----------+-----------+---------------+---------------------------------+
| HashAgg_11 | 1.00 | root | | funcs:count(Column#7)->Column#4 |
| └─TableReader_12 | 1.00 | root | | data:HashAgg_5 |
| └─HashAgg_5 | 1.00 | cop[tikv] | | funcs:count(1)->Column#7 |
| └─TableFullScan_8 | 10000.00 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+---------------------------+----------+-----------+---------------+---------------------------------+
4 rows in set (0.00 sec)
一般而言 TiDB 的 Hash Aggregate 会分成两个阶段执行,一个在 TiKV/TiFlash 的 Coprocessor 上,在扫表算子读取数据时计算聚合函数的中间结果。另一个在 TiDB 层,汇总所有 Coprocessor Task 的中间结果后,得到最终结果。其中 explain 表中的 operator info 列还记录了 Hash Aggregation 的其他信息,我们需要关注的信息是 Aggregation 所使用的聚合函数是什么。如在上面的例子中,Hash Aggregation 算子的 operator info 中的内容为  funcs:count(Column#7)->Column#4 ,我们可以得到 Hash Aggregation 使用了聚合函数  count  进行计算。下面例子中 Stream Aggregation 算子中 operator info 所表示的信息和此处相同。

Stream Aggregate 示例

TiDB Stream Aggregation 算子通常会比 Hash Aggregate 占用更少的内存,有些场景中也会比 Hash Aggregate 执行得更快。当数据量太大或者系统内存不足时,可以试试 Stream Aggregate 算子。一个 Stream Aggregate 的例子如下:
TiDB(root@127.0.0.1:test) > explain select /*+ STREAM_AGG() */ count(*) from t;
+----------------------------+----------+-----------+---------------+---------------------------------+
| id | estRows | task | access object | operator info |
+----------------------------+----------+-----------+---------------+---------------------------------+
| StreamAgg_16 | 1.00 | root | | funcs:count(Column#7)->Column#4 |
| └─TableReader_17 | 1.00 | root | | data:StreamAgg_8 |
| └─StreamAgg_8 | 1.00 | cop[tikv] | | funcs:count(1)->Column#7 |
| └─TableFullScan_13 | 10000.00 | cop[tikv] | table:t | keep order:false, stats:pseudo |
+----------------------------+----------+-----------+---------------+---------------------------------+
4 rows in set (0.00 sec)
和 Hash Aggregate 类似,一般而言 TiDB 的 Stream Aggregate 也会分成两个阶段执行,一个在 TiKV/TiFlash 的 Coprocessor 上,在扫表算子读取数据时计算聚合函数的中间结果。另一个在 TiDB 层,汇总所有 Coprocessor Task 的中间结果后,得到最终结果。
 

2.3如何阅读 Join 的执行计划

TiDB 的 Join 算法包括如下几类:
  • Hash Join
  • Merge Join
  • Index Join (Index Nested Loop Join)
  • Index Hash Join (Index Nested Loop Hash Join)
  • Index Merge Join (Index Nested Loop Merge Join)
下面分别通过一些例子来解释这些 Join 算法的执行过程。
 

Hash Join 示例

TiDB 的 Hash Join 算子采用了多线程优化,执行速度较快,但会消耗较多内存。一个 Hash Join 的例子如下:
mysql> EXPLAIN SELECT /*+ HASH_JOIN(t1, t2) */ * FROM t1, t2 WHERE t1.id = t2.id;
+-----------------------------+----------+-----------+------------------------+------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+----------+-----------+------------------------+------------------------------------------------+
| HashJoin_30 | 12487.50 | root | | inner join, equal:[eq(test.t1.id, test.t2.id)] |
| ├─IndexReader_35(Build) | 9990.00 | root | | index:IndexFullScan_34 |
| │ └─IndexFullScan_34 | 9990.00 | cop[tikv] | table:t2, index:id(id) | keep order:false, stats:pseudo |
| └─IndexReader_33(Probe) | 9990.00 | root | | index:IndexFullScan_32 |
| └─IndexFullScan_32 | 9990.00 | cop[tikv] | table:t1, index:id(id) | keep order:false, stats:pseudo |
+-----------------------------+----------+-----------+------------------------+------------------------------------------------+
5 rows in set (0.01 sec)
Hash Join 会将 Build 端的数据缓存在内存中,根据这些数据构造出一个 Hash Table,然后读取 Probe 端的数据,用 Probe 端的数据去探测 Build 端构造出来的 Hash Table,将符合条件的数据返回给用户。其中 explain 表中的 operator info 列还记录了 Hash Join 的其他信息,包括查询是 Inner Join 还是 Outer Join,Join 的条件是什么。如在上面的例子中,该查询是一个 Inner Join,其中 Join 的条件  equal:[eq(test.t1.id, test.t2.id)]  和查询语句中  where t1.id = t2.id  部分对应。下面例子中其他几个 Join 算子的 operator info 和此处类似。
 

Merge Join 示例

TiDB 的 Merge Join 算子相比于 Hash Join 通常会占用更少的内存,但可能执行时间会更久。当数据量太大,或系统内存不足时,建议尝试使用。下面是一个 Merge Join 的例子:
mysql> EXPLAIN SELECT /*+ MERGE_JOIN(t1, t2) */ * FROM t1, t2 WHERE t1.id = t2.id;
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------+
| MergeJoin_7 | 12487.50 | root | | inner join, left key:test.t1.id, right key:test.t2.id |
| ├─IndexReader_12(Build) | 9990.00 | root | | index:IndexFullScan_11 |
| │ └─IndexFullScan_11 | 9990.00 | cop[tikv] | table:t2, index:id(id) | keep order:true, stats:pseudo |
| └─IndexReader_10(Probe) | 9990.00 | root | | index:IndexFullScan_9 |
| └─IndexFullScan_9 | 9990.00 | cop[tikv] | table:t1, index:id(id) | keep order:true, stats:pseudo |
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------+
5 rows in set (0.01 sec)
Merge Join 算子在执行时,会从 Build 端把一个 Join Group 的数据全部读取到内存中,接着再去读 Probe 端的数据,用 Probe 端的每行数据去和 Build 端的一个完整 Join Group 比较,依次查看是否匹配(除了满足等值条件以外,还有其他非等值条件,这里的 “匹配” 主要是指查看是否满足非等值条件)。Join Group 指的是所有 Join Key 上值相同的数据。
 

Index Join 示例

对于外表经过 WHERE 条件过滤后结果集较小(小于 1 万行)的场景,可以尝试使用这个算法。
mysql> EXPLAIN SELECT /*+ INL_JOIN(t1, t2) */ * FROM t1, t2 WHERE t1.id = t2.id;
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
| IndexJoin_11 | 12487.50 | root | | inner join, inner:IndexReader_10, outer key:test.t1.id, inner key:test.t2.id |
| ├─IndexReader_31(Build) | 9990.00 | root | | index:IndexFullScan_30 |
| │ └─IndexFullScan_30 | 9990.00 | cop[tikv] | table:t1, index:id(id) | keep order:false, stats:pseudo |
| └─IndexReader_10(Probe) | 1.00 | root | | index:Selection_9 |
| └─Selection_9 | 1.00 | cop[tikv] | | not(isnull(test.t2.id)) |
| └─IndexRangeScan_8 | 1.00 | cop[tikv] | table:t2, index:id(id) | range: decided by [eq(test.t2.id, test.t1.id)], keep order:false, stats:pseudo |
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
6 rows in set (0.00 sec)

Index Hash Join 示例

该算法与 Index Join 使用条件完全一样,但在某些场景下会更为节省内存资源。
mysql> EXPLAIN SELECT /*+ INL_HASH_JOIN(t1, t2) */ * FROM t1, t2 WHERE t1.id = t2.id;
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
| IndexHashJoin_18 | 12487.50 | root | | inner join, inner:IndexReader_10, outer key:test.t1.id, inner key:test.t2.id |
| ├─IndexReader_31(Build) | 9990.00 | root | | index:IndexFullScan_30 |
| │ └─IndexFullScan_30 | 9990.00 | cop[tikv] | table:t1, index:id(id) | keep order:false, stats:pseudo |
| └─IndexReader_10(Probe) | 1.00 | root | | index:Selection_9 |
| └─Selection_9 | 1.00 | cop[tikv] | | not(isnull(test.t2.id)) |
| └─IndexRangeScan_8 | 1.00 | cop[tikv] | table:t2, index:id(id) | range: decided by [eq(test.t2.id, test.t1.id)], keep order:false, stats:pseudo |
+-----------------------------+----------+-----------+------------------------+--------------------------------------------------------------------------------+
6 rows in set (0.00 sec)

Index Merge Join 示例

该算法的使用条件包含 Index Join 的所有使用条件,但还需要添加一条:join keys 中的内表列集合是内表使用的 index 的前缀,或内表使用的 index 是 join keys 中的内表列集合的前缀,该算法相比于 INL_JOIN 会更节省内存。
mysql> EXPLAIN SELECT /*+ INL_MERGE_JOIN(t1, t2) */ * FROM t1, t2 WHERE t1.id = t2.id;
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------------------------------+
| IndexMergeJoin_16 | 12487.50 | root | | inner join, inner:IndexReader_14, outer key:test.t1.id, inner key:test.t2.id |
| ├─IndexReader_31(Build) | 9990.00 | root | | index:IndexFullScan_30 |
| │ └─IndexFullScan_30 | 9990.00 | cop[tikv] | table:t1, index:id(id) | keep order:false, stats:pseudo |
| └─IndexReader_14(Probe) | 1.00 | root | | index:Selection_13 |
| └─Selection_13 | 1.00 | cop[tikv] | | not(isnull(test.t2.id)) |
| └─IndexRangeScan_12 | 1.00 | cop[tikv] | table:t2, index:id(id) | range: decided by [eq(test.t2.id, test.t1.id)], keep order:true, stats:pseudo |
+-----------------------------+----------+-----------+------------------------+-------------------------------------------------------------------------------+
6 rows in set (0.00 sec)

优化实例

EXPLAIN SELECT count ( * ) FROM trips WHERE start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 23:59:59' ;
+------------------------------+----------+-----------+---------------+------------------------------------------------------------------------------------------------------------------------+
| id | estRows | task | access object | operator info |
+------------------------------+----------+-----------+---------------+------------------------------------------------------------------------------------------------------------------------+
| StreamAgg_20 | 1.00 | root | | funcs:count(Column#13)->Column#11 |
| └─TableReader_21 | 1.00 | root | | data:StreamAgg_9 |
| └─StreamAgg_9 | 1.00 | cop[tikv] | | funcs:count(1)->Column#13 |
| └─Selection_19 | 8166.73 | cop[tikv] | | ge(bikeshare.trips.start_date, 2017-07-01 00:00:00.000000), le(bikeshare.trips.start_date, 2017-07-01 23:59:59.000000) |
| └─TableFullScan_18 | 19117643.00 | cop[tikv] | table:trips | keep order:false, stats:pseudo |
+------------------------------+----------+-----------+---------------+------------------------------------------------------------------------------------------------------------------------+
在上面的例子中,coprocessor 上读取 trips 表上的数据 ( TableScan_18 ),寻找满足  start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 23:59:59'  条件的数据 ( Selection_19 ),然后计算满足条件的数据行数 ( StreamAgg_9 ),最后把结果返回给 TiDB。TiDB 汇总各个 coprocessor 返回的结果 ( TableReader_21 ),并进一步计算所有数据的行数 ( StreamAgg_20 ),最终把结果返回给客户端。在上面这个查询中,TiDB 根据  trips  表的统计信息估算出  TableScan_18  的输出结果行数为 19117643.00,满足条件  start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 23:59:59'  的有 8166.73 条,经过聚合运算后,只有 1 条结果。
上述查询中,虽然大部分计算逻辑都下推到了 TiKV 的 coprocessor 上,但是其执行效率还是不够高,可以添加适当的索引来消除  TableScan_18  对 trips 的全表扫,进一步加速查询的执行:
ALTER TABLE trips ADD INDEX ( start_date ) ;
EXPLAIN SELECT count ( * ) FROM trips WHERE start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 23:59:59' ;
+-----------------------------+---------+-----------+-------------------------------------------+---------------------------------------------------------------------------------+
| id | estRows | task | access object | operator info |
+-----------------------------+---------+-----------+-------------------------------------------+---------------------------------------------------------------------------------+
| StreamAgg_17 | 1.00 | root | | funcs:count(Column#13)->Column#11 |
| └─IndexReader_18 | 1.00 | root | | index:StreamAgg_9 |
| └─StreamAgg_9 | 1.00 | cop[tikv] | | funcs:count(1)->Column#13 |
| └─IndexRangeScan_16 | 8166.73 | cop[tikv] | table:trips, index:start_date(start_date) | range:[2017-07-01 00:00:00,2017-07-01 23:59:59], keep order:false, stats:pseudo |
+-----------------------------+---------+-----------+-------------------------------------------+---------------------------------------------------------------------------------+
4 rows in set (0.00 sec)
在添加完索引后的新执行计划中,使用  IndexScan_24  直接读取满足条件  start_date BETWEEN '2017-07-01 00:00:00' AND '2017-07-01 23:59:59'  的数据,可以看到,估算的要扫描的数据行数从之前的 19117643.00 降到了现在的 8166.73。在测试环境中显示,这个查询的执行时间从 50.41 秒降到了 0.01 秒!
 
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值