docker安装elasticsearch和kibana

一、Es7.x安装

#创建目录
mkdir -p /mydata/es/config
mkdir -p /mydata/es/data
echo "http.host: 0.0.0.0" >> /mydata/es/config/elasticsearch.yml

#宿主机权限不够 
chmod 777 -R /mydata/es


#启动运行
docker run -d --name elasticSearch7 -p 9200:9200 -p 9300:9300 \
  -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms128m -Xmx128m" \
  -v /mydata/es/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
  -v /mydata/es/data:/usr/share/elasticsearch/data \
  -v /mydata/es/plugins:/usr/share/elasticsearch/plugins elasticsearch:7.6.2

设置开启自启动:docker update --restart=always 容器id 

参数说明
-e "discovery.type=single-node" 设置为单节点
-e ES_JAVA_OPTS="-Xms128m -Xmx128m" 设置ES的初始内存和最大内存,否则过大启动不了ES

将上面config下的elasticsearch.yml文件内容修改为:

# --------------------------- Cluster ---------------------------  
# 集群名称,默认是elasticsearch
#cluster.name: my-application

# --------------------------- Node ---------------------------
# 节点名称
node.name: node-1

# 指定该节点是否有资格被选举成为node,默认是true,es是默认集群中的第一台机器为master
#node.master: true
# 指定该节点是否存储索引数据,默认为true
#node.data: true
# 数据预处理节点,默认true
#node.ingest: true 

# 1.如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器 
#node.master: false 
#node.data: true 
#node.ingest: false 
# 2.如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器 
#node.master: true 
#node.data: false
#node.ingest: false 
# 3.如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等 
#node.master: false 
#node.data: false 
#node.ingest: true
# 4.仅作为协调器 
#node.master: false 
#node.data: false
#node.ingest: false  

# 每个节点都可以定义一些与之关联的通用属性,用于后期集群进行碎片分配时的过滤
#node.attr.rack: r1

# 默认情况下,多个节点可以在同一个安装路径启动,如果你想让你的es只启动一个节点,可以进行如下设置
#node.max_local_storage_nodes: 1 

# --------------------------- Index ---------------------------
# 设置默认索引分片个数,默认为5片。索引创建后一次生成的,后续不可更改设置
#index.number_of_shards: 5
# 设置默认索引副本个数,默认为1个副本。可以通过API去实时修改设置
#index.number_of_replicas: 1
#如果服务器够多,可以将分片提高,尽量将数据平均分布到大集群中去。同时,如果增加副本数量可以有效的提高搜索性能 

# --------------------------- Paths ---------------------------
# 配置文件的存储路径,默认$ES_HOME/config
#path.conf: /path/to/conf
# 索引数据的存储路径,默认$ES_HOME/data 
#path.data: /path/to/data
# 日志文件的存储路径,默认$ES_HOME/logs
#path.logs: /path/to/logs
# 临时文件的存储路径,默认$ES_HOME/work
#path.work: /path/to/work
# 插件的存放路径,默认$ES_HOME/plugins
#path.plugins: /path/to/plugins

# --------------------------- Plugin ---------------------------
# 设置插件作为启动条件,如果以下插件没有安装,则该节点服务不会启动 
#plugin.mandatory: mapper-attachments,lang-groovy

# --------------------------- Memory ---------------------------
# 锁住物理内存,不使用swap内存,使有swap内存性能降低
#bootstrap.mlockall: true
# 新版本
#bootstrap.memory_lock: true

# --------------------------- Network --------------------------- 
# 绑定ip地址,默认0.0.0.0
#network.bind_host: 192.168.0.1
# 与其它节点交互的ip地址,如果不设置它会自动判断
#network.publish_host: 192.168.0.1
# 参数是用来同时设置bind_host和publish_host上面两个参数
network.host: 0.0.0.0

# 是否使用http协议对外提供服务,默认为true
#http.enabled: true
# 对外服务的http端口,默认为9200
http.port: 9200
# 请求内容的最大容量,默认100mb
#http.max_content_length: 100mb

# 节点间交互的tcp端口,默认是9300
#transport.tcp.port: 9300
# 是否压缩tcp传输时的数据,默认为false
#transport.tcp.compress: false

# 使用head等插件监控集群信息,需要打开以下配置项
#http.cors.enabled: true
#http.cors.allow-origin: /.*/
#http.cors.allow-credentials: true

# --------------------------- Gateway ---------------------------
# gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统 
#gateway.type: local 
# 设置集群有多少个节点启动后,才允许进行恢复处理 
#gateway.recover_after_nodes: 1 
# 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起 
#gateway.recover_after_time: 5m 
# 设置这个集群中期望有多少个节点.一旦这N个节点启动(并且recover_after_nodes也符合), 
# 立即开始恢复过程(不等待recover_after_time超时) 
#gateway.expected_nodes: 2

# --------------------------- Recovery Throttling ---------------------------
# 下面这些配置允许在初始化恢复,副本分配,再平衡,或者添加和删除节点时控制节点间的分片分配 
# 设置一个节点的并行恢复数 
# 1.初始化数据恢复时,并发恢复线程的个数,默认为4 
#cluster.routing.allocation.node_initial_primaries_recoveries: 4   
# 2.添加删除节点或负载均衡时并发恢复线程的个数,默认为2 
#cluster.routing.allocation.node_concurrent_recoveries: 2 

# 设置恢复时的吞吐量(例如:100mb,默认为0无限制.如果机器还有其他业务在跑的话还是限制一下的好) 
#indices.recovery.max_bytes_per_sec: 20mb 
# 设置来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5 
#indices.recovery.concurrent_streams: 5 
#注意: 合理的设置以上参数能有效的提高集群节点的数据恢复以及初始化速度

# --------------------------- Discovery ---------------------------
# 设置多少个符合主节点条件的节点引导集群,默认为1。对于大的集群来说,可以设置大一点的值(2-4) 
#discovery.zen.minimum_master_nodes: 1 
# 新版本代替 minimum_master_nodes 参数的,一组初始的符合主节点的节点引导集群
# 如果未设置 initial_master_nodes,那么在启动新节点时会尝试发现已有的集群。如果节点找不到可以加入的集群,将定期记录警告消息
#cluster.initial_master_nodes: ["node-1", "node-2"]
# 探查的超时时间,默认3秒,可以提高一点以应对网络不好的时候,防止脑裂
#discovery.zen.ping.timeout: 3s 

# 设置是否打开多播发现节点.默认是true. 当多播不可用或者集群跨网段的时候集群通信还是用单播吧 
#discovery.zen.ping.multicast.enabled: false 

# 集群主节点的初始列表,当节点启动时使用这个列表进行发现 
#discovery.zen.ping.unicast.hosts: ["192.168.8.128:9300","192.168.8.129:9300","192.168.8.130:9300"]
# 新版本代替 ping.unicast.hosts 参数的,初始主机列表,节点启动时执行发现
#discovery.seed_hosts: ["host1", "host2"]

二、安装kibaba

#拉去Kibana
docker pull kibana:7.6.2
#运行kibana 注意IP一定不要写错
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://自己的elasticsearchIP地址:9200 -p 5601:5601 -d kibana:7.6.2
#进入容器
docker exec -it 容器ID /bin/sh
#使用vi 修改文件内容
vi /usr/share/kibana/config/kibana.yml 

kibaba.yml

server.name: kibana
server.host: "0"
#elasticsearch.hosts: [ "http://elasticsearch:9200" ]
elasticsearch.hosts: [ "http://自己的elasticsearch的IP:9200" ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
#设置kibana中文显示
i18n.locale: "zh-CN"
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值