1 分词理解
在对Docuemnt中的内容进行索引之前,需要使用分词器进行分词 ,分词的目的是为了搜索。分词的主要过程就是先分词后过滤。
- 分词:采集到的数据会存储到document对象的Field域中,分词就是将Document中Field的value值切分成一个一个的词。
- 过滤:包括去除标点符号过滤、去除停用词过滤(的、是、a、an、the等)、大写转小写、词的形还原(复数形式转成单数形参、过去式转成现在式。。。)等。
什么是停用词?停用词是为节省存储空间和提高搜索效率,搜索引擎在索引页面或处理搜索请求时会自动忽略某些字或词,这些字或词即被称为Stop Words(停用词)。比如语气助词、副词、介词、连接词等,通常自身并无明确的意义,只有将其放入一个完整的句子中才有一定作用,如常见的“的”、“在”、“是”、“啊”等。
对于分词来说,不同的语言,分词规则不同。Lucene作为一个工具包提供不同国家的分词器,本例子使用StandardAnalyzer,它可以对用英文进行分词。
如下是org.apache.lucene.analysis.standard.standardAnalyzer的部分源码:
@Override protected TokenStreamComponents createComponents(final String fieldName) { final Tokenizer src; if (getVersion().onOrAfter(Version.LUCENE_4_7_0)) { //创建分词[带有Tokenizer一般都表示创建分词器] StandardTokenizer t = new StandardTokenizer(); t.setMaxTokenLength(maxTokenLength); src = t; } else { //创建分词[带有Tokenizer一般都表示创建分词器] StandardTokenizer40 t = new StandardTokenizer40(); t.setMaxTokenLength(maxTokenLength); src = t; } //创建过滤,带有Filter一般表示过滤s TokenStream tok = new StandardFilter(src); //大小写过滤 tok = new LowerCaseFilter(tok); //停用词汇过滤 tok = new StopFilter(tok, stopwords); return new TokenStreamCom