linux下ElasticSearch安装部署


1、安装部署

在安装部署elasticsearch之前,需要先安装好Java JDK。

1.1 下载安装

# cd /home/tang

# wget https://download.elastic.co/elasticsearch/elasticsearch/elasticsearch-1.7.1.tar.gz 

# tar zxvf elasticsearch-1.7.1.tar.gz

# cd elasticsearch-1.7.1

1.2 启动

修改集群名(可选):

# vim/home/tang/elasticsearch-1.7.1/config/elasticsearcy.yml ,

找到: cluster.name,去掉前面的#,修改为cluster.name:tang (名字随意)。

找到node.name,去掉前面的#,修改为node.name:node1 (可选)

找到index.number_of_shards,去掉前面的#,修改为index.number_of_shards:10(默认为5),修改分片数(可选)

找到index.number_of_replicas,去掉前面的#,修改为index.number_of_replicas1(默认也是1,可不理)。修改备份数(可选).

# vim /home/tang/elasticsearch-1.7.1/bin/elasticsearch.in.sh,找到ES_MIN_MEM和ES_MAX_MEM,修改es最大和最小占用内存值。修改Es占用内存:

(说明:Es的集群非常简单,只要在同一个局域网内,多台服务器能互相通讯,并且cluster.name是一样的,就能自动集在一起。)

 

# bin/elasticsearch

1.3 关闭

#curl -XPOST localhost:9200/_shutdown

2、ElasticSearch的基本配置

# vim /home/tang/elasticsearch-1.7.1/config/elasticsearcy.yml

编辑文件,其中

l  cluster.name:集群名称,es可以自我发现,拥有相同集群名字的es会构成集群。

l  node.name:节点名称,当前节点的名字。唯一。

l  node.master:是否允许当前节点成为master。

l  node.data:是否允许当前节点存储数据。

l  index.number_of_shards:一个索引默认的shard数量。

l  index.number_of_replicas:一个索引默认的副本数量。

l  path.data:数据存储.

l  path.log:日志存储。

l  bootstrap.mlockall:是否只使用内存(不使用swap)。

l  network.bind_host:设置绑定的ip地址,用于访问es。

l  network.publish_host:与其他node通信的地址,用于cluster间数据传输。

3、插件安装

3.1 head,一款H5的数据查看客户端

(1) 安装

安装方法1:

# cd /home/tang/elasticsearch-1.7.1/bin

# ./ plugin -installmobz/elasticsearch-head

安装方法2:

#cd /home/tang/

#wget https://github.com/mobz/elasticsearch-head/archive/master.zip

#tar zxvf master.zip 解压后的文件为elasticsearch-head-master

#mkdir –p elasticsearch-1.7.1/ plugins/head/_site

将解压后的elasticsearch-head-master文件夹下的所有文件复制到_site目录下

#cp  elasticsearch-head-master/*   elasticsearch-1.7.1/ plugins/head/_site/

(2) 启动

# cd /home/tang/elasticsearch-1.7.1/

# bin/elasticsearch

(3) 访问

在浏览器中打开http://localhost:9200/_plugin/head/即可查看。

3.2 bigdesk,状态查看客户端

(1) 安装

#./plugin -installlukas-vlcek/bigdesk/<bigdesk_version>

(2) 访问

http://localhost:9200/_plugin/bigdesk/

3.3 ik-analyzer,中文分词器

(1) 安装

git clonehttps://github.com/medcl/elasticsearch-analysis-ik.git

mvn clean install(前提是配置了maven)。

将target中的elasticsearch-analysis-ik-xxx.jar复制到${esroot}/plugins/ik/。

复制elasticsearch-analysis-ik(git repository)中config目录下ik内容到{esroot}/config。

配置${esroot}/conf/elasticsearch.yml,在最下方加入:

################################## Analyzer###############################

index:

 analysis:                   

   analyzer:     

     ik:

         alias: [ik_analyzer]

         type: org.elasticsearch.index.analysis.IkAnalyzerProvider

     ik_max_word:

         type: ik

         use_smart: false

     ik_smart:

         type: ik

         use_smart: true

至此完成。

(2) 测试

#curl ‘localhost/idx/_analyze?analyzer=ik_smart’ -d ‘中国人和中国’

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值