Elasticsearch 6.0.0 Head Analysis-ik-6.0.0 集群部署

一、安装环境和配置
    1、系统:Centos 7
    2、JDK: 1.8
    3、四台 Linux 集群
二、Elasticsearch 6.0.0 安装配置
    1、下载安装包:
        Elasticsearch: wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.0.0.tar.gz
    2、创建一个用户 es 用户
                useradd  es    创建 es账户
                passwd es      设置密码(不用设置密码)
                (su  es        切换es  用户)
    3、解压
        tar -zxvf elasticsearch-6.0.0.tar.gz
    4、将解压文件移动到当前新建的用户目录下
        mv  elasticsearch-6.0.0  /home/es
    5、把文件权限分配给es用户
        5.1、分配 elasticsearch6.0.0 权限
            chown -R es /home/es/elasticsearch6.0.0
        5.2、给bin目录下的文件设置权限
            chmod -R a+x bin
    6、修改配置文件 elasticsearch.yml
        # 配置Head插件访问
         http.cors.enabled: true
         http.cors.allow-origin: "*"

        # 禁用允许通过通配符删除索引或者将config中的_all设置
        # action.destructive_requires_name: true
    7、启动 Elasticsearch
        7.1 切换到root用户,编辑limits.conf
                vim /etc/security/limits.conf 
        7.2 添加如下内容:
                * soft nofile 65536
                * hard nofile 131072
                * soft nproc 2048
                * hard nproc 4096
        7.3 切换到root用户,修改配置文件 sysctl.conf
                vim /etc/sysctl.conf 
        7.4 添加下面配置:
                vm.max_map_count=655360
        7.5 执行命令:
                sysctl -p
        7.7 启动Elasticsearch
                ->切换到es用户
                ->/bin 路径下执行 
                ./elasticsearch ->查看是否启动成功
                ./elasticsearch - d 后台启动
                ps -ef | grep elastic 查找ES进程
                kill -9 2382(进程号)杀掉ES进程
三、ElasticSearch Head 安装配置
    1、下载安装包:
        wget  https://github.com/mobz/elasticsearch-head/archive/master.zip        
    2、解压 elasticsearch-head-master.zip
        1.1 解压:unzip elasticsearch-head-master.zip
        1.2 移动:mv elasticsearch-head-master /home/es/
    3、安装node、npm、grunt
        3.1 下载安装包:
            https://nodejs.org/en/download/
    4、解压 tar -xvf node-v6.10.2-linux-x64.tar.xz
        4.1 将解压文件移动到 /usr/local/node目录下  -- mkdir node
        4.2 配置node.js环境变量
                vim /etc/profile
                添加 export PATH=/usr/local/node/node-v6.10.2-linux-x64/bin:$PATH
                执行source /etc/profile 使环境变量生效
                node -v npm 查看是否安装成功
                使用npm安装grunt:
                npm install -g grunt-cli
        4.3 elasticsearch-head-master目录下安装依赖
                npm install -g cnpm --registry=https://registry.npm.taobao.org
    5、修改head源码
        5.1 修改head服务器监听地址
            vim /home/es/elasticsearch-head-master/Gruntfile.js
            在connect节点 添加hostname属性,设置为自己的IP
            connect: {
            server: {
                options: {
                        port: 9100,
                        hostname: '192.168.10.241',
                        base: '.',
                        keepalive: true
                    }
                }
            }
        5.2 修改head连接地址:
            vim /home/es/elasticsearch-head-master/_site/app.js
            把localhost修改成es的服务器地址:
                this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "http://192.168.10.241:9200";
    6、启动 Elasticsearch-head
        安装:
            在elasticsearch-head-master目录下安装依赖
                npm install grunt
                npm install grunt-contrib-clean
                npm install grunt-contrib-concat
                npm install grunt-contrib-watch
                npm install grunt-contrib-connect
                npm install grunt-contrib-copy
                npm install grunt-contrib-jasmine  -不需执行 

        grunt server
        nohup grunt server &exit 后台启动 (如果启动成功)
        --如果需要关闭head插件  执行:ps aux|grep head  kill - 进程号
四、Analysis-ik-6.0.0 安装配置
    1、下载安装包:
        首先切换镜像到阿里云或者淘宝,然后在执行命令安装
        
        wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
        
        yum makecache
        
        #在Elasticsearch 6.0.0 bin 目录下执行
        ./elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.0.0/elasticsearch-analysis-ik-6.0.0.zip
    2、字典配置
        2.1 IKAnalyzer.cfg.xml可以位于{conf}/analysis-ik/config/IKAnalyzer.cfg.xml
        2.2 IKAnalyzer.cfg.xml 配置
            <?xml version="1.0" encoding="UTF-8"?>
            <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
            <properties>
                <comment>IK Analyzer 扩展配置</comment>
                <!--用户可以在这里配置自己的扩展字典 -->
                <entry key="ext_dict">custom/fingerdic.dic;custom/five_word_thesaurus.dic;custom/httpcws_dict.dic;custom/out.dic;custom/pseudo_original_thesaurus.dic</entry>
                 <!--用户可以在这里配置自己的扩展停止词字典-->
                <entry key="ext_stopwords"></entry>
                <!--用户可以在这里配置远程扩展字典 -->
                <!-- <entry key="remote_ext_dict">words_location</entry> -->
                <!--用户可以在这里配置远程扩展停止词字典-->
                <!-- <entry key="remote_ext_stopwords">words_location</entry> -->
            </properties>

五、集群配置 一共四个节点 这里是其中一个 其他的都差不多
    ##################### Elasticsearch Configuration Example ##################### 
    # 只是挑些重要的配置选项进行注释,其实自带的已经有非常细致的英文注释了.有理解偏差的地方请以官方原版解释为准. 

    ################################### Cluster ################################### 
    # 代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的. 
    # es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。 
    # cluster.name可以确定你的集群名称,当你的elasticsearch集群在同一个网段中elasticsearch会自动的找到具有相同cluster.name的elasticsearch服务. 
    # 所以当同一个网段具有多个elasticsearch集群时cluster.name就成为同一个集群的标识. 
     cluster.name: es-qtm

    #################################### Node ##################################### 
    # 节点名称同理,可自动生成也可手动配置. 
     node.name: node-1

    # 允许一个节点是否可以成为一个master节点,es是默认集群中的第一台机器为master,如果这台机器停止就会重新选举master. 
     node.master: true 

    # 允许该节点存储数据(默认开启) 
     node.data: true 

    # 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下: 
    # 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器 
    # node.master: false 
    # node.data: true 

    # 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器 
    # node.master: true 
    # node.data: false 

    # 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等 
    # node.master: false 
    # node.data: false 

    # 监控集群状态有一下插件和API可以使用: 
    # Use the Cluster Health API [http://localhost:9200/_cluster/health], the 
    # Node Info API [http://localhost:9200/_nodes] or GUI tools # such as <http://www.elasticsearch.org/overview/marvel/>, 
    # <http://github.com/karmi/elasticsearch-paramedic>, 
    # <http://github.com/lukas-vlcek/bigdesk> and 
    # <http://mobz.github.com/elasticsearch-head> to inspect the cluster state. 

    # A node can have generic attributes associated with it, which can later be used 
    # for customized shard allocation filtering, or allocation awareness. An attribute 
    # is a simple key value pair, similar to node.key: value, here is an example: 
    # 每个节点都可以定义一些与之关联的通用属性,用于后期集群进行碎片分配时的过滤
    # node.rack: rack314 

    # 默认情况下,多个节点可以在同一个安装路径启动,如果你想让你的es只启动一个节点,可以进行如下设置
    # node.max_local_storage_nodes: 1 

    #################################### Index #################################### 
    # 设置索引的分片数,默认为5 
    # index.number_of_shards: 5

    # 设置索引的副本数,默认为1: 
    # index.number_of_replicas: 2 

    # 配置文件中提到的最佳实践是,如果服务器够多,可以将分片提高,尽量将数据平均分布到大集群中去
    # 同时,如果增加副本数量可以有效的提高搜索性能 
    # 需要注意的是,"number_of_shards" 是索引创建后一次生成的,后续不可更改设置 
    # "number_of_replicas" 是可以通过API去实时修改设置的 

    #################################### Paths #################################### 
    # 配置文件存储位置 
    # path.conf: /path/to/conf 

    # 数据存储位置(单个目录设置) 
    # path.data: /path/to/data 
    # 多个数据存储位置,有利于性能提升 
    # path.data: /path/to/data1,/path/to/data2 

    # 临时文件的路径 
    # path.work: /path/to/work 

    # 日志文件的路径 
    # path.logs: /path/to/logs 

    # 插件安装路径 
    # path.plugins: /path/to/plugins 

    #################################### Plugin ################################### 
    # 设置插件作为启动条件,如果一下插件没有安装,则该节点服务不会启动 
    # plugin.mandatory: mapper-attachments,lang-groovy 

    ################################### Memory #################################### 
    # 当JVM开始写入交换空间时(swapping)ElasticSearch性能会低下,你应该保证它不会写入交换空间 
    # 设置这个属性为true来锁定内存,同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过 `ulimit -l unlimited` 命令 
     bootstrap.memory_lock: false
     
     bootstrap.system_call_filter: false 

    # 确保 ES_MIN_MEM 和 ES_MAX_MEM 环境变量设置为相同的值,以及机器有足够的内存分配给Elasticsearch 
    # 注意:内存也不是越大越好,一般64位机器,最大分配内存别才超过32G 

    ############################## Network And HTTP ############################### 
    # 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0 
    # network.bind_host: 192.168.241.177

    # 设置其它节点和该节点交互的ip地址,如果不设置它会自动设置,值必须是个真实的ip地址 
    # network.publish_host: 192.168.241.177
     
    # 同时设置bind_host和publish_host上面两个参数 
     network.host: 192.168.10.241

    # 设置节点间交互的tcp端口,默认是9300 
    # transport.tcp.port: 9300

    # 设置是否压缩tcp传输时的数据,默认为false,不压缩
    # transport.tcp.compress: true 

    # 设置对外服务的http端口,默认为9200 
    # http.port: 9200 

    # 设置请求内容的最大容量,默认100mb 
    # http.max_content_length: 100mb 

    # 使用http协议对外提供服务,默认为true,开启 
    # http.enabled: false 

    ################################### Gateway ################################### 
    # gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统 
    # gateway.type: local 

    # 下面的配置控制怎样以及何时启动一整个集群重启的初始化恢复过程 
    # (当使用shard gateway时,是为了尽可能的重用local data(本地数据)) 

    # 一个集群中的N个节点启动后,才允许进行恢复处理 
     gateway.recover_after_nodes: 1 

    # 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起 
    # gateway.recover_after_time: 5m 

    # 设置这个集群中期望有多少个节点.一旦这N个节点启动(并且recover_after_nodes也符合), 
    # 立即开始恢复过程(不等待recover_after_time超时) 
     gateway.expected_nodes: 2

     ############################# Recovery Throttling ############################# 
    # 下面这些配置允许在初始化恢复,副本分配,再平衡,或者添加和删除节点时控制节点间的分片分配 
    # 设置一个节点的并行恢复数 
    # 1.初始化数据恢复时,并发恢复线程的个数,默认为4 
     cluster.routing.allocation.node_initial_primaries_recoveries: 4 
     
    # 2.添加删除节点或负载均衡时并发恢复线程的个数,默认为2 
    # cluster.routing.allocation.node_concurrent_recoveries: 2 

    # 设置恢复时的吞吐量(例如:100mb,默认为0无限制.如果机器还有其他业务在跑的话还是限制一下的好) 
    # indices.recovery.max_bytes_per_sec: 20mb 

    # 设置来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5 
    # indices.recovery.concurrent_streams: 5 
    # 注意: 合理的设置以上参数能有效的提高集群节点的数据恢复以及初始化速度 

    ################################## Discovery ################################## 
    # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点.默认为1,对于大的集群来说,可以设置大一点的值(2-4) 
     discovery.zen.minimum_master_nodes: 2
     
    # 探查的超时时间,默认3秒,提高一点以应对网络不好的时候,防止脑裂 
    # discovery.zen.ping.timeout: 10s 

    # For more information, see 
    # <http://elasticsearch.org/guide/en/elasticsearch/reference/current/modules-discovery-zen.html> 

    # 设置是否打开多播发现节点.默认是true. 
    # 当多播不可用或者集群跨网段的时候集群通信还是用单播吧 
    # discovery.zen.ping.multicast.enabled: false 

    # 这是一个集群中的主节点的初始列表,当节点(主节点或者数据节点)启动时使用这个列表进行探测 
     discovery.zen.ping.unicast.hosts: ["192.168.10.241","192.168.10.242","192.168.10.243","192.168.10.244"] 

    # Slow Log部分与GC log部分略,不过可以通过相关日志优化搜索查询速度 

    ############## Memory(重点需要调优的部分) ################ 
    # Cache部分: 
    # es有很多种方式来缓存其内部与索引有关的数据.其中包括filter cache 

    # filter cache部分: 
    # filter cache是用来缓存filters的结果的.默认的cache type是node type.node type的机制是所有的索引内部的分片共享filter cache.node type采用的方式是LRU方式.即:当缓存达到了某个临界值之后,es会将最近没有使用的数据清除出filter cache.使让新的数据进入es. 

    # 这个临界值的设置方法如下:indices.cache.filter.size 值类型:eg.:512mb 20%。默认的值是10%。 

    # out of memory错误避免过于频繁的查询时集群假死 
    # 1.设置es的缓存类型为Soft Reference,它的主要特点是据有较强的引用功能.只有当内存不够的时候,才进行回收这类内存,因此在内存足够的时候,它们通常不被回收.另外,这些引用对象还能保证在Java抛出OutOfMemory异常之前,被设置为null.它可以用于实现一些常用图片的缓存,实现Cache的功能,保证最大限度的使用内存而不引起OutOfMemory.在es的配置文件加上index.cache.field.type: soft即可. 

    # 2.设置es最大缓存数据条数和缓存失效时间,通过设置index.cache.field.max_size: 50000来把缓存field的最大值设置为50000,设置index.cache.field.expire: 10m把过期时间设置成10分钟. 
    # index.cache.field.max_size: 50000 
    # index.cache.field.expire: 10m 
    # index.cache.field.type: soft 

    # field data部分&&circuit breaker部分: 
    # 用于fielddata缓存的内存数量,主要用于当使用排序,faceting操作时,elasticsearch会将一些热点数据加载到内存中来提供给客户端访问,但是这种缓存是比较珍贵的,所以对它进行合理的设置. 

    # 可以使用值:eg:50mb 或者 30%(节点 node heap内存量),默认是:unbounded #indices.fielddata.cache.size: unbounded 
    # field的超时时间.默认是-1,可以设置的值类型: 5m #indices.fielddata.cache.expire: -1 

    # circuit breaker部分: 
    # 断路器是elasticsearch为了防止内存溢出的一种操作,每一种circuit breaker都可以指定一个内存界限触发此操作,这种circuit breaker的设定有一个最高级别的设定:indices.breaker.total.limit 默认值是JVM heap的70%.当内存达到这个数量的时候会触发内存回收

    # 另外还有两组子设置: 
    #indices.breaker.fielddata.limit:当系统发现fielddata的数量达到一定数量时会触发内存回收.默认值是JVM heap的70% 
    #indices.breaker.fielddata.overhead:在系统要加载fielddata时会进行预先估计,当系统发现要加载进内存的值超过limit * overhead时会进行进行内存回收.默认是1.03 
    #indices.breaker.request.limit:这种断路器是elasticsearch为了防止OOM(内存溢出),在每次请求数据时设定了一个固定的内存数量.默认值是40% 
    #indices.breaker.request.overhead:同上,也是elasticsearch在发送请求时设定的一个预估系数,用来防止内存溢出.默认值是1 

    # Translog部分: 
    # 每一个分片(shard)都有一个transaction log或者是与它有关的预写日志,(write log),在es进行索引(index)或者删除(delete)操作时会将没有提交的数据记录在translog之中,当进行flush 操作的时候会将tranlog中的数据发送给Lucene进行相关的操作.一次flush操作的发生基于如下的几个配置 
    #index.translog.flush_threshold_ops:当发生多少次操作时进行一次flush.默认是 unlimited #index.translog.flush_threshold_size:当translog的大小达到此值时会进行一次flush操作.默认是512mb 
    #index.translog.flush_threshold_period:在指定的时间间隔内如果没有进行flush操作,会进行一次强制flush操作.默认是30m #index.translog.interval:多少时间间隔内会检查一次translog,来进行一次flush操作.es会随机的在这个值到这个值的2倍大小之间进行一次操作,默认是5s 
    #index.gateway.local.sync:多少时间进行一次的写磁盘操作,默认是5s 

    # 以上的translog配置都可以通过API进行动态的设置 - See more at: http://bigbo.github.io/pages/2015/04/10/elasticsearch_config/#sthash.AvOSUcQ4.dpuf

    # 配置Head插件访问
     http.cors.enabled: true
     http.cors.allow-origin: "*"

    # 禁用允许通过通配符删除索引或者将config中的_all设置
    # action.destructive_requires_name: true

    #设置分页查询的最大值
    #curl -XPUT 'http://192.168.5.179:9200/_all/_settings?preserve_existing=true' -d '{"index.max_result_window" : "200000"}'

转载于:https://my.oschina.net/gibbons/blog/1583510

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值