SpringBoot整合es

1、项目pom引入es相关依赖

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-elasticsearch</artifactId>
</dependency>

2、application.yml配置文件新增es配置

spring:
  elasticsearch:
    rest:
      uris: http://localhost:9200

3、代码注入模板类就可以使用es了

@Autowired
private ElasticsearchRestTemplate template;

// 上述操作形式是ES早期的操作方式,使用的客户端被称为Low Level Client,
这种客户端操作方式性能方面略显不足,于是ES开发了全新的客户端操作方式,
称为High Level Client
@Autowired
private RestHighLevelClient client;

4、通过es接口操作es

基本操作

ES中保存有我们要查询的数据,只不过格式和数据库存储数据格式不同而已。在ES中我们要先创建倒排索引,这个索引的功能又点类似于数据库的表,然后将数据添加到倒排索引中,添加的数据称为文档。所以要进行ES的操作要先创建索引,再添加文档,这样才能进行后续的查询操作。

要操作ES可以通过Rest风格的请求来进行,也就是说发送一个请求就可以执行一个操作。比如新建索引,删除索引这些操作都可以使用发送请求的形式来进行

创建索引

// 创建索引,books是索引名称,下同
PUT请求		http://localhost:9200/books

// 发送请求后,看到如下信息即索引创建成功
{
    "acknowledged": true,
    "shards_acknowledged": true,
    "index": "books"
}

// 重复创建已经存在的索引会出现错误信息,reason属性中描述错误原因
{
    "error": {
        "root_cause": [
            {
                "type": "resource_already_exists_exception",
                "reason": "index [books/VgC_XMVAQmedaiBNSgO2-w] already exists",
                "index_uuid": "VgC_XMVAQmedaiBNSgO2-w",
                "index": "books"
            }
        ],
        "type": "resource_already_exists_exception",
        "reason": "index [books/VgC_XMVAQmedaiBNSgO2-w] already exists",	# books索引已经存在
        "index_uuid": "VgC_XMVAQmedaiBNSgO2-w",
        "index": "book"
    },
    "status": 400
}

查询索引

GET请求		http://localhost:9200/books

// 返回
{
    "books": {
        "aliases": {},
        "mappings": {},
        "settings": {
            "index": {
                "creation_date": "1691400465823",
                "number_of_shards": "1",
                "number_of_replicas": "1",
                "uuid": "YPioI8LDTyiZfpw3OnInwQ",
                "version": {
                    "created": "7090399"
                },
                "provided_name": "books"
            }
        }
    }
}

// 如果查询了不存在的索引,会返回错误信息
{
    "error": {
        "root_cause": [
            {
                "type": "index_not_found_exception",
                "reason": "no such index [book]",
                "resource.type": "index_or_alias",
                "resource.id": "book",
                "index_uuid": "_na_",
                "index": "book"
            }
        ],
        "type": "index_not_found_exception",
        "reason": "no such index [book]",
        "resource.type": "index_or_alias",
        "resource.id": "book",
        "index_uuid": "_na_",
        "index": "book"
    },
    "status": 404
}

删除索引

DELETE请求	http://localhost:9200/books

// 返回
{
    "acknowledged": true
}

// 如果重复删除,会给出错误信息
{
    "error": {
        "root_cause": [
            {
                "type": "index_not_found_exception",
                "reason": "no such index [books]",
                "resource.type": "index_or_alias",
                "resource.id": "books",
                "index_uuid": "_na_",
                "index": "books"
            }
        ],
        "type": "index_not_found_exception",
        "reason": "no such index [books]",
        "resource.type": "index_or_alias",
        "resource.id": "books",
        "index_uuid": "_na_",
        "index": "books"
    },
    "status": 404
}

创建索引并指定分词器:

前面创建的索引是未指定分词器的,可以在创建索引时添加请求参数,设置分词器。目前国内较为流行的分词器是IK分词器,使用前先在下对应的分词器,然后使用。

注意:IK分词器插件的版本要和ElasticSearch的版本一致

IK分词器下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases

分词器下载后解压到ES安装目录的plugins目录中即可,安装分词器后需要重新启动ES服务器。

注意:下载的分词器压缩文件不能放在plugins目录中,解压后可以删掉

es启动日志出现如下信息说明ik分词器加载成功

使用IK分词器创建索引格式:

PUT请求		http://localhost:9200/books
注意:创建索引必须是小写,不能使用_开头
请求参数如下(注意是json格式的参数)
{
    "mappings":{							#定义mappings属性,替换创建索引时对应的mappings属性	
        "properties":{						#定义索引中包含的属性设置
            "id":{							#设置索引中包含id属性
                "type":"keyword"			#当前属性可以被直接搜索
            },
            "name":{						#设置索引中包含name属性
                "type":"text",              #当前属性是文本信息,参与分词  
                "analyzer":"ik_max_word",   #使用IK分词器进行分词             
                "copy_to":"all"				#分词结果拷贝到all属性中
            },
            "type":{
                "type":"keyword"
            },
            "description":{
                "type":"text",	                
                "analyzer":"ik_max_word",                
                "copy_to":"all"
            },
            "all":{							#定义属性,用来描述多个字段的分词结果集合,当前属性可以参与查询
                "type":"text",	                
                "analyzer":"ik_max_word"
            }
        }
    }
}

目前我们已经有了索引了,但是索引中还没有数据,所以要先添加数据,ES中称数据为文档,下面进行文档操作

添加文档,有三种方式

POST请求	http://localhost:9200/books/_doc		#使用系统生成id
POST请求	http://localhost:9200/books/_create/1	#使用指定id
POST请求	http://localhost:9200/books/_doc/1		#使用指定id,不存在创建,存在更新(版本递增)

文档通过请求参数传递,数据格式json
{
    "name":"springboot",
    "type":"springboot",
    "description":"springboot"
}  

查询文档

GET请求	http://localhost:9200/books/_doc/1		 #查询单个文档 	
GET请求	http://localhost:9200/books/_search		 #查询全部文档

条件查询

GET请求	http://localhost:9200/books/_search?q=name:springboot	# q=查询属性名:查询属性值

// 前缀匹配查询
概念:以xx开头的搜索,不计算相关度评分
{
    "query": {
        "prefix": {
            "<field>": {
                "value": "<word_prefix>"
            }
        }
    }
}

// 模糊查询
混淆字符 (box → fox) 缺少字符 (black → lack)
多出字符 (sic → sick) 颠倒次序 (act → cat)
{
    "query": {
        "fuzzy": {
            "<field>": {
                "value": "<keyword>"
            }
        }
    }
}


// 正则匹配查询
概念:regexp查询的性能可以根据提供的正则表达式而有所不同。
为了提高性能,应避免使用通配符模式,如.或 .?+未经前缀或后缀
{
    "query": {
        "regexp": {
            "<field>": {
                "value": "<regex>",
                "flags": "ALL"            
            }
        }
    }
}

flags说明:
(1)ALL
启用所有可选操作符。

COMPLEMENT
启用操作符。可以使用对下面最短的模式进行否定。例如
a~bc # matches ‘adc’ and ‘aec’ but not ‘abc’

(2)INTERVAL
启用<>操作符。可以使用<>匹配数值范围。例如
foo<1-100> # matches ‘foo1’, ‘foo2’ … ‘foo99’, ‘foo100’
foo<01-100> # matches ‘foo01’, ‘foo02’ … ‘foo99’, ‘foo100’

(3)INTERSECTION
启用&操作符,它充当AND操作符。如果左边和右边的模式都匹配,则匹配成功。例如:
aaa.+&.+bbb # matches ‘aaabbb’

(4)ANYSTRING
启用@操作符。您可以使用@来匹配任何整个字符串。 您可以将@操作符与&和~操作符组合起来,创建一个“everything except”逻辑。例如:
@&~(abc.+) # matches everything except terms beginning with ‘abc’


// 通配符查询
概念:通配符运算符是匹配一个或多个字符的占位符。例如,*通配符运算符匹配零个或多个字符。
您可以将通配符运算符与其他字符结合使用以创建通配符模式。
{
    "query": {
        "wildcard": {
            "<field>": {
                "value": "<word_with_wildcard>"
            }
        }
    }
}

删除文档

DELETE请求	http://localhost:9200/books/_doc/1

修改文档(全量更新)

PUT请求	http://localhost:9200/books/_doc/1

文档通过请求参数传递,数据格式json
{
    "name":"springboot",
    "type":"springboot",
    "description":"springboot"
}

修改文档(部分更新)

POST请求	http://localhost:9200/books/_update/1

文档通过请求参数传递,数据格式json
{		
    "doc":{						#部分更新并不是对原始文档进行更新,而是对原始文档对象中的doc属性中的指定属性更新
        "name":"springboot"		#仅更新提供的属性值,未提供的属性值不参与更新操作
    }
}

查看分词算法

GET请求 http://localhost:/_analyze

// 请求体
{
  "analyzer": "ik_max_word",
  "text": "斯提芬库里"
}

5、自定义分词字典

用ik分词器分析的文本中不存在“芬库里”

如果我想加入“芬库里”,此时就需要配置自定义字典--即自定义词组群,就是在IK分词器字典中加入我们自定义的字典,在词典中加入想要的词。

(1)在ik分词器文件的config目录中新建自定义的字典文件,以.dic为后缀,并在文件中加入“芬库里”:

(2)在IKAnalyzer.cfg.xml配置文件中加入自定义的字典文件

(3)查看自定义分词字典是否生效

(4)创建索引时可以指定算法

{
    "mappings":{
        "properties":{
            "name":{
                "type": "text",
                "analyzer":"ik_max_word"
            },
            "desc":{
                "type": "text",
                "analyzer":"ik_max_word"
            }
        }
    }
}

有问题和建议欢迎大家留言评论,谢谢~

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值