ElasticSearch速学 - IK中文分词器 、elasticdump数据导出导入、字段分词

我们前面简单的学习了分析器,包含了分词器、过滤器、字符过滤器等等。
这些内置的分析器很多时候并不能满足我们的需求,比如处理中文的时候。

比较流行的中文分析器组件

https://github.com/medcl/elasticsearch-analysis-ik

安装maven

1、maven官网

http://maven.apache.org/download.cgi

2、下载地址

wget http://mirrors.hust.edu.cn/apache/maven/maven-3/3.5.0/binaries/apache-maven-3.5.0-bin.tar.gz

这里写图片描述

3、解压

tar zxvf apache-maven-3.5.0-bin.tar.gz 

解压完成目录名称是apache-maven-3.5.0,该目录下还有以下文件或目录:

bin  boot  conf  lib  LICENSE  NOTICE  README.txt

这里写图片描述

4、配置

需要配置环境变量,这里对当前用户进行修改,你要修改/etc/profile也可以。

vi ~/.bash_profile
#加入
export M2_HOME=~/apache-maven-3.5.0 #这个目录改成你自己的目录
#修改PATH
PATH=$PATH:$HOME/bin:$M2_HOME/bin

这里写图片描述
保存并退出之后,执行:

source ~/.bash_profile

5、查看maven是否安装成功

mvn --version

这里写图片描述

下载IK分词器

https://github.com/medcl/elasticsearch-analysis-ik/releases
安装文档下载对应版本,这里用的版本是5.3.0。

我们下载源码(熟悉一下maven)

wget https://github.com/medcl/elasticsearch-analysis-ik/archive/v5.3.0.tar.gz --no-check-certificate
#解压
tar zxvf v5.3.0.tar.gz 
#进入目录
cd elasticsearch-analysis-ik-5.3.0

这里写图片描述

mvn package -e
#用maven编译项目,生成target目录,
#编译、测试代码,生成测试报告,生成jar/war文件

(如果第一次,这个过程很慢,请耐心等待)

这里写图片描述

生成出来的文件会在

.../target/releases/elasticsearch-analysis-ik-5.3.0.zip

我们需要解压elasticsearch-analysis-ik-5.3.0.zip这个文件,然后把解压之后的内容全部拷贝到elasticsearch的安装目录的plugins/ik中(自己创建个ik目录)
这里写图片描述

最后 重启你的elasticsearch实例。
(注意,我们前面已经做了elasticsearch集群,我这里有2个es节点,都需要拷贝这个插件)

查看你的插件

重新启动2个ES实例之后,再启动我们的”Kibana”这个工具:

kibana-5.3.0-linux-x86_64/bin/kibana

使用ES的api查看插件:
这里写图片描述

测试一下分词
1、我们先准备几条新闻数据

POST blog/news/901
{
  "title":"前端开发框架vue.js开发实践总结",
  "content":"如果你之前有用过angular.js或别的双向绑定的js库,那么你会有一种自来熟的感觉。当然,vue作为一个轻量的前端视图层工具,与angular相比,还是有很明显的区别的",
  "tags":"vue js angulars 前端 工具"
}
POST blog/news/902
{
  "title":"React.js初学者应该知道的9件事",
  "content":"我们从最基本的开始。React不是一个 MVC框架,好吧,它根本就不是一个框架。它只是一个渲染视图的库。如果你对 MVC 熟悉的话,你就会意识到 React.js只对应了V这部分,如果它插手了M或C的逻辑,你就需要考虑用其它方法来解了",
  "tags":"mvc 框架 react 逻辑"
}
POST blog/news/903
{
  "title":"大风厂\"一一六事件\"的总结报告",
  "content":"郑西坡得知护厂工人强烈抗议拆迁,山水集团就找来警察来维持秩序,陈岩石觉得是经济纠纷,怎么可以派警察,他赶忙给京州市警察局长赵东来打电话,赵东来长根本不知情,并且肯定说是假警察",
  "tags":"大风厂 总结报告 达康书记"
}
POST blog/news/904
{
  "title":"总的来说,大风厂事件的处理结果还是让领导满意的",
  "content":"侯亮平调查的好,领导很满意。此处省略一万字。",
  "tags":"大风厂 领导 侯亮平"
}

我们现在就有了这些数据了:
这里写图片描述

2、测试

是不是我们安装好中文分词器就可以马上起到作用了呢?
这里写图片描述
并没有什么卵用,把“技术总结”这个词分成了这样,,,,

因为在加入分词器之后,需要对字段分别设置(哪些字段需要中文分词)

修改mapping

mapping可以对索引字段进行类型描述一集搜索分析行为

#针对索引
GET blog/_mapping

这里写图片描述

#针对索引和类型
GET blog/news/_mapping

这里写图片描述

我们这里需要对mapping进行修改,但是很不幸的是,我们一开始就把索引建好了,数据也创建了。mapping都已经生成啦。

mapping的anlayzer设置文档:
https://www.elastic.co/guide/en/elasticsearch/reference/5.3/analyzer.html
我们试着创建一下mapping吧:

PUT /blog
{
  "mappings": {
    "news": {
      "properties": {
        "title": { 
          "type": "text",
          "analyzer": "ik_max_word"
        }
      }
    }
  }
}

这里写图片描述

这个时候我们想到了备份恢复数据的方法

1、创建一个备份

PUT _snapshot/mybackup/bak2?wait_for_completion=true
{
  "indices": "blog"
}

这里写图片描述

2、删除索引

DELETE blog

3、然后创建索引加上mapping

PUT /blog
{
  "mappings": {
    "news": {
      "properties": {
        "title": { 
          "type": "text",
          "analyzer": "ik_max_word"
        }
      }
    }
  }
}

这里写图片描述

这个时候我们来看一下:
这里写图片描述

4、恢复备份的数据

我们那么多新闻数据不能不要了啊

#先要关闭索引啦
POST blog/_close
##恢复备份的数据
POST _snapshot/mybackup/bak2/_restore?wait_for_completion=true
{
  "indices": "blog"
}
#打开索引
POST blog/_open

5、恢复数据之后我们再来测试
这里写图片描述
什么?没有任何效果。这是因为我们之前的备份也会备份mapping信息,恢复数据的同时mapping信息也还原啦。由此我们得出,不能这么玩。

elasticdump数据导出导入

我们需要导出纯数据(不要mapping信息)
https://github.com/taskrabbit/elasticsearch-dump

使用这个工具,需要node.js.
1、安装node.js

#下载
wget https://nodejs.org/dist/v6.10.2/node-v6.10.2-linux-x64.tar.xz --no-check-certificate
#解压
xz -d node-v6.10.2-linux-x64.tar.xz
tar xvf node-v6.10.2-linux-x64.tar

把解压之后的文件夹拷贝的你目录(可以重命名)

2、依然要修改环境配置

vi ~/.bash_profile

这里写图片描述

保存之后,执行命令(为了立即生效):

source ~/.bash_profile

我们查看一下node.js是否安装成功?

[admin@localhost bin]$ node --version
v6.10.2
[admin@localhost bin]$ npm --version
3.10.10
[admin@localhost bin]$ 

可以下载elasticdump

为了避免全局安装
我们创建一个目录estools,然后我们安装到这个目录中。

cd estools/
npm install elasticdump

使用elasticdump

cd estools/node_modules/.bin/

导出data:

./elasticdump \
  --input=http://localhost:9200/blog \
  --output=blog.json \
  --type=data

这里写图片描述

然后我们接着来:

#删除索引
DELETE blog
#创建
PUT blog
{
  "mappings": {
    "news": {
      "properties": {
        "title": { 
          "type": "text",
          "analyzer": "ik_max_word"
        }
      }
    }
  }
}

接下来,我们把blog.json导入索引里面:

./elasticdump \
  --input=blog.json \
  --output=http://localhost:9200/blog \
  --type=data

这里写图片描述
最后我们再来测试一下分词的情况:

POST blog/_analyze
{
  "field": "title",
  "text": "java开发技术实战"
}

ok,我们发现中文分词成功
这里写图片描述

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值