mysql词法分析_【死磕Sharding-jdbc】—SQL解析-词法分析

sharding-jdbc对SQL解析的源码主要在下图所示parsing模块中,由下图可知SQL解析主要分为两部分:lexer和parser。lexer就是本文需要分析的词法分析:

AAffA0nNPuCLAAAAAElFTkSuQmCC

sharding-jdbc sql解析SQLcom.dangdang.ddframe.rdb.sharding.parsing.lexer.token.Token/*! hello, afei */跳过

delete(type=DELETE, literals=delete, endPosition=24)

ignore(type=IGNORE, literals=ignore, endPosition=31)

from(type=FROM, literals=from, endPosition=36)

t_user(type=IDENTIFIER, literals=t_user, endPosition=45)

where(type=WHERE, literals=where, endPosition=51)

user_id(type=IDENTIFIER, literals=user_id, endPosition=59)

=(type=EQ, literals==, endPosition=60)

?(type=QUESTION, literals=?, endPosition=61)

(type=END, literals=, endPosition=62)

分析sharding-jdbc源码的词法分析之前,先大概说一下词法分析是干嘛的,后面理解起来就会更容易,例如对于SQL:"/! hello, afei /delete ignore from t_user where user_id=? "而言,词法分析结果如下:SQLcom.dangdang.ddframe.rdb.sharding.parsing.lexer.token.Token/*! hello, afei */跳过

delete(type=DELETE, literals=delete, endPosition=24)

ignore(type=IGNORE, literals=ignore, endPosition=31)

from(type=FROM, literals=from, endPosition=36)

t_user(type=IDENTIFIER, literals=t_user, endPosition=45)

where(type=WHERE, literals=where, endPosition=51)

user_id(type=IDENTIFIER, literals=user_id, endPosition=59)

=(type=EQ, literals==, endPosition=60)

?(type=QUESTION, literals=?, endPosition=61)

(type=END, literals=, endPosition=62)

SQL解析结果初探

前面分析SQL重写的时,其测试用例代码在SQLRewriteEngineTest.java中,列举其中一个用例源码如下,assertRewriteForLimit()方法中的selectStatement就是SQL解析的结果:@Beforepublic void setUp() {

// 定义sharding规则

shardingRule = new ShardingRuleMockBuilder()

// table_x表的主键列是id

.addGenerateKeyColumn("table_x", "id")

// table_x和table_y是绑定表关系

.addBindingTable("table_y").build();

selectStatement = new SelectStatement();

tableTokens = new HashMap<>(1, 1);

// 逻辑表table_x对应的实际表是table_1

tableTokens.put("table_x", "table_1");}@Testpublic void assertRewriteForLimit() {

selectStatement.setLimit(new Limit(true));

selectStatement.getLimit().setOffset(new LimitValue(2, -1));

selectStatement.getLimit().setRowCount(new LimitValue(2, -1));

selectStatement.getSqlTokens().add(new TableToken(17, "table_x"));

selectStatement.getSqlTokens().add(new OffsetToken(33, 2));

selectStatement.getSqlTokens().add(new RowCountToken(36, 2));

// SelectStatement就是SQL解析的结果

SQLRewriteEngine rewriteEngine = new SQLRewriteEngine(shardingRule, "SELECT x.id FROM table_x x LIMIT 2, 2", selectStatement);

assertThat(rewriteEngine.rewrite(true).toSQL(tableTokens), is("SELECT x.id FROM table_1 x LIMIT 0, 4"));}

SQL解析分析

核心类为com.dangdang.ddframe.rdb.sharding.parsing.SQLParsingEngine.java,核心源码如下:@RequiredArgsConstructorpublic final class SQLParsingEngine {

// 数据库类型,例如MySQL,Oracle等

private final DatabaseType dbType;

// 原SQL(解析前的SQL)

private final String sql;

// sharding分库分表规则

private final ShardingRule shardingRule;

public SQLStatement parse() {

LexerEngine lexerEngine = LexerEngineFactory.newInstance(dbType, sql);

lexerEngine.nextToken();

SQLParser sqlParser = SQLParserFactory.newInstance(

dbType,

lexerEngine.getCurrentToken().getType(), shardingRule, lexerEngine);

SQLStatement result = sqlParser.parse();

return result;}从parse()方法的结果可知,SQL解析的结果就是SQLStatement,上面的测试用例是SelectStatement,是SQLStatement的子类,关系如下图所示:

1. 得到LexerEngine

对应源码为LexerEngine lexerEngine = LexerEngineFactory.newInstance(dbType, sql);,核心实现源码如下:@NoArgsConstructor(access = AccessLevel.PRIVATE)public final class LexerEngineFactory {

public static LexerEngine newInstance(final DatabaseType dbType, final String sql) {

// 不同的数据库类型获取LexerEngine不一样(主要是关键词不一样),从这里可知H2和MySQL的解析完全一致

switch (dbType) {

case H2:

case MySQL:

return new LexerEngine(new MySQLLexer(sql));

case Oracle:

return new LexerEngine(new OracleLexer(sql));

case SQLServer:

return new LexerEngine(new SQLServerLexer(sql));

case PostgreSQL:

return new LexerEngine(new PostgreSQLLexer(sql));

default:

throw new UnsupportedOperationException(String.format("Cannot support database [%s].", dbType));

}

}}从这里可知,sharding-jdbc只支持这些数据库:H2,MySQL,Oracle,SQLServer,PostgreSQL;其他数据库如DB2是不支持的;

以Mysql数据库为例,获取MySQLLexer源码如下,可知Lexer两个主要属性为SQL和关键词字典:// 词法分析器的这几个属性比较重要,贯穿整个SQL解析过程@RequiredArgsConstructorpublic class Lexer {

// 待解析的SQL语句

@Getter

private final String input;

// 字典属性下面有解析,主要包括数据库对应的所有关键词

private final Dictionary dictionary;

// 解析SQL的位置偏移量

private int offset;

// 当前解析的token

@Getter

private Token currentToken;

... ...}public final class MySQLLexer extends Lexer {

// MySQL词法分析器核心Dictionary的构造方法入参为MySQL所有关键词合集(可以预见各数据库的词法分析器都包含其所有SQL关键词信息),MySQL所有关键词集合包括MySQLKeyword和DefaultKeyword;其他数据库类似,例如Oracle所有关键词集合包括OracleKeyword和DefaultKeyword

private static Dictionary dictionary = new Dictionary(MySQLKeyword.values());

public MySQLLexer(final String input) {

super(input, dictionary);

}

... ...

2. 获取第一个token

对应的源码是lexerEngine.nextToken();,核心实现源码如下:public final void nextToken() {

skipIgnoredToken();

if (isVariableBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanVariable();

} else if (isNCharBegin()) {

currentToken = new Tokenizer(input, dictionary, ++offset).scanChars();

} else if (isIdentifierBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanIdentifier();

} else if (isHexDecimalBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanHexDecimal();

} else if (isNumberBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanNumber();

} else if (isSymbolBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanSymbol();

} else if (isCharsBegin()) {

currentToken = new Tokenizer(input, dictionary, offset).scanChars();

} else if (isEnd()) {

currentToken = new Token(Assist.END, "", offset);

} else {

currentToken = new Token(Assist.ERROR, "", offset);

}

offset = currentToken.getEndPosition();}// 跳过忽略的tokenprivate void skipIgnoredToken() {

offset = new Tokenizer(input, dictionary, offset).skipWhitespace();

while (isHintBegin()) {

offset = new Tokenizer(input, dictionary, offset).skipHint();

offset = new Tokenizer(input, dictionary, offset).skipWhitespace();

}

while (isCommentBegin()) {

offset = new Tokenizer(input, dictionary, offset).skipComment();

offset = new Tokenizer(input, dictionary, offset).skipWhitespace();

}}

由这段代码可知,忽略的token主要包括:空格,如下图所示:

AAffA0nNPuCLAAAAAElFTkSuQmCChint与后面的空格,例如MySQL的hint语法为/*! hint info */,"SELECT /*!40001 SQL_CACHE */ o.* FROM t_order o"这条SQL有hint/*!40001 SQL_CACHE */;(Oracle的hint语法有所不同,通过OracleLexer.java中的isHintBegin()可知,Oracle的hint语法为/*+ hint info */);

注释与后面的空格,,参考sharding-jdbc源码可知注释语法有3种://,--,/*,这三种注释的处理有所不同,//和--被认为是单行注释(isSingleLineCommentBegin()),sharding-jdbc会直接通过当前一整行;而/*被认为是多行注释(isMultipleLineCommentBegin()),sharding-jdbc会直接掉到*/后面,例如MySQL的注释语法为" /*parse explain*/SELECT o.* FROM t_order o"这条SQL有注释/*parse explain*/;

判断是否为注释的源码如下:protected boolean isCommentBegin() {

char current = getCurrentChar(0);

char next = getCurrentChar(1);

return '/' == current && '/' == next || '-' == current && '-' == next || '/' == current && '*' == next;}

nextToken()分析

由于接下来的SQL解析都会调用这个nextToken()方法,所以为了更好的分析SQL解析过程,接下来详细剖析它的逻辑,由其源码可知,其逻辑主要分为两个部分:调用skipIgnoredToken()跳过忽略的token(上面已经分析了哪些属于忽略的token)

调用is***Begin()方法判断类型然后构造Token;is***Begin()主要有下面提到的这些:isVariableBegin()--是否变量开头,即@,例如这种SQL:select @a from dual(连续两个@符号即@@也是可以的),其中a是一个定义的变量;select @a from dual这条SQL解析到@的时候,得到的token为{type:Literals.VARIABLE, literals:@a, endPostion:9}(这个token的endPostion就是@a后面的位置)

isNCharBegin()--SQLServer的特殊语法,其他数据库都不支持。例如INSERT INTO employees

VALUES(N'29730', N'Philippe', N'Horsford', 20, 1),申明字符串为nvarchar类型;

isIdentifierBegin() -- 是否标识符开头,即az,AZ,,_,$;例如这种SQL:**select user_id from t_user limit 1**,解析select的时候,得到的token为**{type:DefaultKeyword.SELECT, literals:SELECT, endPostion:6}**;或者这种SQL:**selectuser_idfrom t_user limit 1**,解析user_id的时候,得到的token为**{type:Literals.IDENTIFIER, literals:user_id`, endPostion:16}**;

isHexDecimalBegin() -- 是否16进程符号开头,即0x。例如这种SQL:select 0x21 from dual,解析0x21的时候,得到的token为{type:Literals.HEX, literals:0x21, endPostion:11}

isNumberBegin() -- 是否数字开头,即0~9,例如这种SQL:select 'afei' from t_user limit 1,limit 1这个1就是数字,解析到limit后面的1的时候,得到的token为{type:Literals.INT, literals:1, endPostion:33}

isSymbolBegin() -- 是否特殊符号开头,例如这种SQL:select user_id from t_user limit ?,,解析?的时候,得到的token为{type:Symbol.QUESTION, literals:?, endPostion:36}

isCharsBegin() -- 是否字符开头,即单引号或者双引号,例如这种SQL:select 'afei' from t_user limit 1,解析 afei的时候,得到的token为{type:Literals.CHARS, literals:afei, endPostion:13}

isEnd() -- 是否SQL尾部,判断条件是offset >= input.length(),即遍历位置offset是否到了sql(input就是sql)尾部。得到的token为{type:Assist.END, literals:"", endPostion:31}nextToken()的解析非常重要,其调用贯穿在整个sharding-jdbc的SQL解析过程中;根据这段分析逻辑就能得出文章前面词法分析结果表格了。

3. 得到SQL解析器

对应的源码是SQLParserFactory.newInstance(dbType, lexerEngine.getCurrentToken().getType(), shardingRule, lexerEngine),lexerEngine.getCurrentToken().getType()就是上面解析得到的第一个token的类型,核心实现源码如下:@NoArgsConstructor(access = AccessLevel.PRIVATE)public final class SQLParserFactory {

public static SQLParser newInstance(final DatabaseType dbType, final TokenType tokenType, final ShardingRule shardingRule, final LexerEngine lexerEngine) {

// 第一个token类型一定是默认关键词,否则抛出异常。构造这种异常很简单,只需要定义的SQL以MySQLKeyword中的关键词开头即可,例如"show create table t_order o"

if (!(tokenType instanceof DefaultKeyword)) {

throw new SQLParsingUnsupportedException(tokenType);

}

// 根据第一个token类型得到具体解析器,且第一个token一定是:select,insert,update,delete,create,alter,drop,truncate中的一个,否则会抛出SQLParsingUnsupportedException异常。构造这种异常很简单,只需要定义的sql以DefaultKeyword中的关键词开头,且不是下面枚举的关键词即可,例如"DATABASE SELECT o.* FROM t_order o"

switch ((DefaultKeyword) tokenType)  {

// 从这里可知,为什么前面要调用lexerEngine.nextToken()获取第一个token,SQLParserFactory根据这个token才能确实哪种类型的SQL解析器

case SELECT:

return SelectParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case INSERT:

return InsertParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case UPDATE:

return UpdateParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case DELETE:

return DeleteParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case CREATE:

return CreateParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case ALTER:

return AlterParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case DROP:

return DropParserFactory.newInstance(dbType, shardingRule, lexerEngine);

case TRUNCATE:

return TruncateParserFactory.newInstance(dbType, shardingRule, lexerEngine);

default:

throw new SQLParsingUnsupportedException(lexerEngine.getCurrentToken().getType());

}

}}

从上面的代码可知,得到的SQL解析器的一些主要属性有:数据库类型dbType;

分库分表规则shardingRule;

词法分析器引擎lexerEngine;lexerEngine的属性为Lexer lexer,它的一些核心属性在上面有分析过:SQL语句input,包含SQL关键词的字典dictionary,SQL解析位置偏移量offset,当前解析得到的词令currentToken;

4. SQL解析

这篇文章分析了sharding-jdbc中SQL解析的准备工作,下一篇文章将详细分析insert(增),delete(删),update(改),select(查),等SQL语句的解析过程;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值