SQL语句的执行流程

MYSQL的逻辑架构

3 层架构

架构

  • 客户层:负责的服务主要有:
    • 管理连接:PDBC+JDBC+ODBC
    • 用户登录:User+Password
    • 权限验证:privileges
  • 服务层:词法分析+语法分析优化器+ 执行器
    • 负责实现跨存储引擎的功能
    • 比如存储过程procedure, 触发器trigger, 视图view
  • 存储层:插件式的架构,支持InnoDB,Memory

建立连接

  • 尽量使用长连接
  • 但也不能一直保持连接。
    • 执行过程中临时使用的内存管理在连接对象里面
    • 长连接会累积这些内存占用
  • 定期断开长连接
  • mysql_reset_connection可以重新初始化连接
    • 开销更小

Select

Select * from t where id = 1;

  1. 词法分析、语法分析
    • 识别token
      关键字:Select
      操作符:*
      关键字:from
      标识符:t
      关键字:where
      标识符:id
      操作符:=
      常量:1
    • 语法分析:
      根据语法规则,判断这个语句是否满足MySQL语法
      语法分析树
  2. 优化器:决定选择使用哪一个方案。
    • 在表里面有多个索引的时候,决定使用哪个索引;
    • 在一个语句有多表连接的时候,决定各个表的连接顺序。
  3. 执行器:开始执行语句
    • 权限验证
    • 打开表,根据表的引擎定义,使用对应的接口
  4. 到达存储引擎
    • 调用InnoDB引擎接口取到t表的第一行,判断id是否为10
    • 取下一行,重复相同的判断逻辑,知道取到这个表的末行
    • 将目标的记录集作为结果集返回给客户端

Update

Write-Ahead Logging :先写日志,再写磁盘。
涉及两个重要的日志模块。

  • 重做日志 redo-log
    • InnoDB引擎特有的日志,以插件形式引入
    • 物理日志,记录“在某个数据页上做了什么修改”
    • 在适当的时候,将操作记录更新到磁盘里面

有了redo-log,即使数据库异常重启,
之前提交的记录也不会丢失,这个特性叫做crash-safe

  • 归档日志 bin-log
    • Server层实现,只能用于归档。
    • 逻辑日志,记录语句的原始逻辑
    • 追加写入,不会覆盖以前的日志

执行流程
两阶段提交: 两阶段指的是重做日志的prepare👉commit

为什么要有“两阶段提交”?

  • 当重做日志写完时,归档日志一定也写完了,保证一致
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Spark SQLSQL语句执行流程源码主要包括以下几个步骤: 1. 解析SQL语句:Spark SQL首先会将SQL语句解析成逻辑计划(Logical Plan),即一个由一系列逻辑操作符组成的树形结构,表示SQL语句执行计划。 2. 优化逻辑计划:Spark SQL会对逻辑计划进行一系列的优化,包括重写查询、推测执行、列裁剪、谓词下推等等,以提高查询性能。 3. 转换为物理计划:经过优化后的逻辑计划会被转换成物理计划(Physical Plan),即一系列RDD操作的执行计划。 4. 执行物理计划:Spark SQL会将物理计划转换成一系列的Spark任务,并提交到集群上执行。 5. 返回结果:执行完毕后,Spark SQL会将结果返回给用户。 以上就是Spark SQLSQL语句执行流程源码的主要步骤。 ### 回答2: 对于Spark SQL中的SQL语句执行流程源码,主要可以分为以下几个步骤: 1. 解析SQL语句 Spark SQL会先对输入的SQL语句进行解析,将它转换为逻辑计划。这个解析的过程是基于SQL的语法和关键字来完成的。解析器将SQL语句拆分成语法单元,处理语法单元规则,然后构建逻辑树。 2. 优化器优化物理执行计划 在解析器生成逻辑计划之后,优化器接着优化逻辑计划,将其转化为物理执行计划,以提高查询效率。Spark SQL的优化器主要实现了两种类型的优化:rule-based和cost-based。 3. 生成RDD并执行计算 根据优化后的物理执行计划,Spark SQL会生成相应的RDD,并将任务分配给不同的Executor运行时执行。其中最基本的RDD是ShuffledRowRDD,它是用来处理group-by 和aggregate操作的。 4. 计算结果 在生成RDD并分配给Executor节点之后,Spark SQL会对分散的数据进行计算并将结果返回给客户端或者存储在外部系统中。 总体来说,Spark SQLSQL语句执行流程源码中还包括一些其他的细节,比如如何处理Join操作,如何在多个Executor上执行查询,如何优化I/O以及如何将计算结果进行持久化等问题。通过了解这些细节,我们能够更好地使用Spark SQL来完成各种数据处理任务。 ### 回答3: Spark SQL是Apache Spark中的一个模块,它提供了基于结构化数据的一种编程接口和查询语言。它以DataFrame的形式进行数据处理,支持SQL查询以及基于Java、Python和Scala等编程语言的API操作。在运行SQL查询时,Spark SQL内部会将其转换为一组具体的物理操作,然后使用Spark的分布式计算框架来执行这些操作。 在Spark SQL中,SQL语句执行流程大致可以分为以下几个步骤:解析(parse)、类型检查(analyze)、优化(optimize)和执行(execute)。具体流程如下所示: 1.解析(parse):Spark SQL使用ANTLR工具来解析SQL查询语句。ANTLR是一种支持多种语言的解析器生成器,可以将输入语言的上下文无关文法转换为解析树。在解析过程中,Spark SQL会将查询语句转换为一个抽象语法树(AST),同时进行语法和语义分析。 2.类型检查(analyze):在语法和语义分析阶段,Spark SQL会对AST节点进行类型检查,并将其转换为逻辑计划(Logical Plan)。逻辑计划是一个基于DataFrame的数据结构,它描述了查询语句的逻辑执行计划,但没有具体的物理实现。 3.优化(optimize):Spark SQL会对逻辑计划进行优化,以生成一个更高效的物理计划(Physical Plan)。优化的过程主要包括三个阶段:逻辑优化(logical optimization)、物理优化(physical optimization)和代码生成(code generation)。逻辑优化主要针对SQL查询语句进行优化,例如重写查询语句、重组关系操作和消除无效计算等;物理优化则主要考虑如何将逻辑计划转换为具体的物理计划,例如选择合适的物理算子和物理存储格式等;最后,代码生成阶段将物理计划转换为具体的代码,以在执行阶段生成原生代码。 4.执行(execute): 在执行阶段,Spark SQL会将物理计划转换为RDD操作,然后使用Spark的分布式计算框架来执行这些操作。在执行过程中,Spark会将数据分布在不同的机器上并行计算,确保高效的数据处理。 总结来说,Spark SQL使用了一系列的流程来将SQL查询语句转换为执行计划,最终通过Spark的分布式计算框架来完成计算任务。这些流程包括解析、类型检查、优化和执行等,每个流程都有具体的实现方式和目的。通过这些流程,Spark SQL能够实现高效的数据处理,支持复杂的数据查询和分析。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值