云守护的专栏

专注于移动安全、游戏安全、逆向安全 ;------------------------- 邮箱:1309521515@qq.com...

elasticsearch elk资料

重建索引reindex: http://kibana.logstash.es/content/elasticsearch/api/reindex.html

2015-10-22 16:49:29

阅读数:698

评论数:0

elasticsearch使用

http://es.xiaoleilu.com/010_Intro/10_Installing_ES.html http://www.ibm.com/developerworks/cn/java/j-javadev2-24/ http://www.elasticsearch.cn/ ps -...

2015-08-19 17:07:27

阅读数:7735

评论数:0

Elasticsearch安装中文分词插件ik

http://blog.csdn.net/liuzhenfeng/article/details/39404435 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词。例如: [html] view plaincopyprint? curl -...

2015-08-13 18:01:46

阅读数:1002

评论数:0

lucene分词器分词demo

package com.jiepu.lucene_49; //lucene不同分词测试,来至:http://blog.zzzhc.com/blogs/86/ import java.io.IOException; import java.io.StringReader; import ...

2015-08-13 16:36:25

阅读数:858

评论数:0

Elasticsearch Java API之清空索引

package com.nerve.core.test; import java.io.IOException; import java.io.InputStream; import java.net.URL; import java.util.Properties; import org.e...

2015-08-05 22:09:50

阅读数:6771

评论数:2

ElasticSearch 简单入门

简介 ElasticSearch是一个开源的分布式搜索引擎,具备高可靠性,支持非常多的企业级搜索用例。像Solr4一样,是基于Lucene构建的。支持时间时间索引和全文检索。官网:http://www.elasticsearch.org 它对外提供一系列基于java和http的api,...

2015-04-23 17:41:00

阅读数:649

评论数:0

lucene 高亮实例

package lia.tools; /** * Copyright Manning Publications Co. * * Licensed under the Apache License, Version 2.0 (the "License"); * you ...

2015-02-01 22:24:19

阅读数:558

评论数:0

搜索引擎智能提示的实现-基于Lucene拼音检查库

package lia.tools; /** * Copyright Manning Publications Co. * * Licensed under the Apache License, Version 2.0 (the "License"); * you ...

2015-02-01 21:47:11

阅读数:3809

评论数:5

java分词器大全

java分词器大全 http://www.oschina.net/project/tag/264/segment jcseg分词器 http://git.oschina.net/lionsoul/jcseg IK Analyzer http://www.oschina.net/p/ika...

2014-12-12 10:44:29

阅读数:5264

评论数:1

lucene 4.8.1官方索引查找例子

package org.apache.lucene.demo; /* * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license agreements. See the...

2014-12-02 14:13:34

阅读数:1473

评论数:0

lucene 4.x 使用N-Gram模型分词器实例。

N-Gram模型: N-Gram是大词汇连续语音识别中常用的一种语言模型,对中文而言,我们称之为汉语语言模型(CLM, Chinese Language Model)。汉语语言模型利用上下文中相邻词间的搭配信息,在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成汉字串(即句子)时,可...

2014-12-02 11:37:20

阅读数:5235

评论数:1

搜索引擎之猎兔分词实例

import java.io.IOException; import java.io.Reader; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene...

2014-08-19 14:42:20

阅读数:908

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭