1、中文分词器Chinese_vgram_lexer的属性mixed_case_ascii7可以用来设置是否要区分英文字母的大小写,默认是不区分大小写的,即你在查询中输入“T”还是“t”,都能查到字母t(T或是)。
疑问:wordlist里的属性设置,似乎不起作用,无论对英文中文分词器。如,在中文分词器,模糊查询英文字母,必须以“%AB%”形式,中文的则不加%,加了结果还不对,不知道什么意思?
2、全文索引用于模糊查询比一般的方法比如like用于模糊查询速度要快的原因是前者是用空间来换时间,在建立全文索引时主要通过分词器(lexer),将被索引的表上的那一列的所有值(即文本,要varchar等类型)分割成一个个token_text(比如,英文分词器BASIC_LEXER以空格,标点符号,_,-,等非字母数字的符号作为分割标记),而且记录这些token_text来自表里的哪些行等信息,最后将这些token_text和这些信息都写到表DR$索引名$I中。有了这张表,全文索引才可以快速地查找(无论是模糊还是不模糊查找),但是该表要占据空间的。
我们建立context类型的全文索引后,要对其索引的表进行查询时,查询语句里要使用contains运算符。
这里,说说contains运算符和like运算符在查找时有什么区别:
比如,我们查找“我们is中国人 而自豪”为例。
若contex