Elk7.2 Docker

正如官方所说的那样 https://www.elastic.co/guide/en/elasticsearch/reference/current/vm-max-map-count.html,Elasticsearch默认使用mmapfs目录来存储索引。操作系统默认的mmap计数太低可能导致内存不足,我们可以使用下面这条命令来增加内存
为了防止ElasticSearch启动报错,max file descriptors [65535] for elasticsearch process is too low, increase to at least [65536]

vi /etc/sysctl.conf 

sysctl -w vm.max_map_count=262144
 
添加配置

vm.max_map_count=655360


 
执行命令

sysctl -p


 
目录结构

创建目录

 

mkdir -p app/elk/elasticsearch/data/ app/elk/kibana/ app/elk/logstash/pipeline/


要授权给该目录,否则elasticsearch无法启动

chmod 777 app/elk/elasticsearch/data

 
创建各个文件夹下的文件

 

touch app/elk/docker-compose.yml app/elk/elasticsearch/elasticsearch.yml app/elk/kibana/kibana.yml app/elk/logstash/pipeline/logstash.conf app/elk/logstash/logstash.yml

 
把下列文件内容复制进去,不要落下

elasticsearch.yml---


## Default Elasticsearch configuration from Elasticsearch base image.
## https://github.com/elastic/elasticsearch/blob/master/distribution/docker/src/docker/config/elasticsearch.yml
#
cluster.name: "docker-cluster"
network.host: 0.0.0.0

## X-Pack settings
## see https://www.elastic.co/guide/en/elasticsearch/reference/current/setup-xpack.html
#
xpack.license.self_generated.type: trial
xpack.security.enabled: true
xpack.monitoring.collection.enabled: true 


#kibana.yml

## Default Kibana configuration from Kibana base image.
### https://github.com/elastic/kibana/blob/master/src/dev/build/tasks/os_packages/docker_generator/templates/kibana_yml.template.js
server.name: kibana
server.host: 0.0.0.0
##汉化kibana 
i18n.locale: "zh-CN"
elasticsearch.hosts: [ "http://elasticsearch:9200" ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
### X-Pack security credentials
elasticsearch.username: elastic
elasticsearch.password: changeme


logstash.conf
注意下:我配置的是多来源日志,不同的系统,访问不同的TCP端口,如果只有一个来源的话,就删除掉一个就行

input {
    tcp {
        type => "springboot1"
        mode => "server"
        host => "0.0.0.0"
        port => 5000
        codec => json_lines
    }
    tcp {
        type => "springboot2"
        mode => "server"
        host => "0.0.0.0"
        port => 5010
        codec => json_lines
    }
}
output {

    if [type] == "springboot1" {
       elasticsearch {
            hosts => "elasticsearch:9200"
            index => "springboot1-logstash-%{+YYYY.MM.dd}"
            user => elastic
            password => changeme
        }
    }
    else if [type] == "springboot2" {
      elasticsearch {
            hosts => "elasticsearch:9200"
            index => "springboot2-logstash-%{+YYYY.MM.dd}"
            user => elastic
            password => changeme
        }
    }
}


logstash.yml

## Default Logstash configuration from Logstash base image.
### https://github.com/elastic/logstash/blob/master/docker/data/logstash/config/logstash-full.yml
http.host: "0.0.0.0"
xpack.monitoring.elasticsearch.hosts: [ "http://elasticsearch:9200" ]
#elasticsearch 这里写的是你的ip
## X-Pack security credentials
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.username: elastic
xpack.monitoring.elasticsearch.password: changeme
 


docker-compose.yml

version: "3"
services:
  ###配置elasticsearch
  elasticsearch:
    image: elasticsearch:7.2.0
    container_name: elasticsearch 
    user: root
    privileged: true
    ports:
      - "9200:9200"
      - "9300:9300"
    environment:
      discovery.type: single-node
      ##es的密码
      ELASTIC_PASSWORD: changeme
      #设置JVM最大(小)可用内存为1024,这个很重要,我一开始没有设置这个,我的es起不来
      ES_JAVA_OPTS: "-Xmx1024m -Xms1024m" 
      ES_JAVA_OPTS: "-Xmx1g -Xms1g"
    volumes:
       # 这里注意一下  如果你想吧docker中es的数据 映射出来 你本地的 /home/elasticsearch 必须拥有 777权限
      - /app/elk/elasticsearch/data/:/usr/share/elasticsearch/data
      - /app/elk/elasticsearch/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml
    #network_mode: host
  ###配置Logstash
  logstash:
    image: logstash:7.2.0
    container_name: logstash
    ports:
      - "5000:5000/tcp"
      - "5010:5010/tcp"
      - "5000:5000/udp"
      - "9600:9600"
    #network_mode: host
    user: root
    privileged: true
    environment:
      discovery.type: single-node
      ES_JAVA_OPTS: "-Xmx256m -Xms256m"
    volumes:
    ###将本机目录/opt/elk/logstach/pipeline下的文件映射到docker容器里面
      - /app/elk/logstash/pipeline:/usr/share/logstash/pipeline
      - /app/elk/logstash/logstash.yml:/usr/share/logstash/config/logstash.yml
    depends_on:
      - elasticsearch       
  ###配置Kibana  64位系统下内存约为1.4GB,32位系统下约为0.7GB
  kibana:
    image: kibana:7.2.0
    container_name: kibana
    user: root
    privileged: true
    ports:
      - "5601:5601"
    volumes:
      ###将本机目录/opt/elk/kibana/kibana.yml下的文件映射到docker容器里面
      - /app/elk/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml
    environment:
      - ELASTICSEARCH_URL=http://elasticsearch:9200  
    #network_mode: host
    depends_on:
      - elasticsearch


通过docker-compose镜像安装启动
下载慢的话最好配置下镜像加速器 ,配置如下 登录阿里云找到容器镜像服务


cd /app/elk/
docker-compose up -d
 


Springboot 的logback.xml配置
1.maven安装对应的包

<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>6.4</version>
</dependency>



2.配置logback.xml

<?xml version="1.0" encoding="UTF-8"?>
<configuration>
    <include resource="org/springframework/boot/logging/logback/base.xml" />
    <appender name="LOGSTASH" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <!--配置logStash 服务地址-->
        <destination>192.168.10.128:5000</destination>
        <!-- 日志输出编码 -->
        <encoder charset="UTF-8"
                 class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <providers>
                <timestamp>
                    <timeZone>UTC</timeZone>
                </timestamp>
                <pattern>
                    <pattern>
                        {
                        "logLevel": "%level",
                        "serviceName": "system-user",
                        "pid": "${PID:-}",
                        "thread": "%thread",
                        "class": "%logger{40}",
                        "message": "%message"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
    </appender>

    <root level="INFO">
        <appender-ref ref="LOGSTASH" />
        <appender-ref ref="CONSOLE" />
    </root>
</configuration>


 
如果是多来源的日志搜集,只要改下红色框里的端口就行,刚才我配置的logstash.conf就是 两个系统的 一个系统logback.xml 访问5000端口,另一个系统访问5010端口


运行起springboot 就能在kibana里看到索引

kibana访问地址:http://192.168.10.128:5601/
账号密码 elastic changeme

在JAVA里打印了些日志

kibana里也有了

 

 

其他相关问题:

docker FATAL CLI ERROR Error: EACCES: permission denied, open '/usr/share/kibana/config/kibana.yml'

   问题原因及解决办法
   原因是CentOS7中的安全模块selinux把权限禁掉了,至少有以下三种方式解决挂载的目录没有权限的问题:
   1.在运行容器的时候,给容器加特权,及加上 --privileged=true 参数:
   docker run -i -t -v /soft:/soft --privileged=true 686672a1d0cc /bin/bash
   2.临时关闭selinux:
   setenforce 0
   3.添加selinux规则,改变要挂载的目录的安全性文本

使用的是docker版本的jenkins,运行后,出现如下错误:

[root@localhost CICD]# docker logs -f jenkins 
touch: cannot touch '/var/jenkins_home/copy_reference_file.log': Permission denied
Can not write to /var/jenkins_home/copy_reference_file.log. Wrong volume permissions?


 
我jenkins挂载的目录是 /opt/jenkins/xxxxx,root 用户创建,而 jenkins user的uid为1000
所以需要进行 chown 设置,如下:

sudo chown -R 1000:1000 /opt/jenkins
 
然后重启容器,错误就没有了。
 

 

docker原生支持众多的日志引擎,适用于各种不同的应用场景,本篇文档对其作一个简单的说明。

Docker日志引擎说明

docker支持的日志引擎如下:

  • none:关闭docker的回显日志, docker logs 看不到任何输出。使用这种方式也就意味着无法查看任何容器输出的日志

  • json-file:把每个容器的回显日志打到每个容器的内部, 形式为json 文件。在实际使用中, 有些容器在启动后有大量的回显日志, 尤其在程序内部报错时打出的日志信息尤其巨大, 很可能会因为某几个容器的json 日志过大而撑爆整个宿主机的磁盘

  • syslog:把所有容器的回显日志打到系统的syslog中。

    目前harbor私有镜像仓库使用docker-compose方式启动的话,就默认使用的这种方式。将所有容器的日志都集中收集到一个harbor-log的容器中,在执行docker logs的时候会提示"logs" command is supported only for "json-file" and "journald" loggin drivers (got: syslog)

  • journald:把所有容器的回显日志打到系统的journald服务中,这是推荐的方式。

  • fluentd:把所有容器的回显日志打到fluentd服务中

  • gelf 把所有容器的回显日志打到支持 GELF(Graylog Extended Log Format) 格式的服务中, 比如Graylog或Logstash

修改docker日志引擎

  1. 修改docker配置文件/etc/docker/daemon.json如下:
    { "log-driver": "journald" }
  2. 在容器运行时指定其日志引擎:
    docker run --log-driver=journald alpint /bin/sh

journald配置说明

journald配置文件说明

 
  1. # /etc/systemd/jornald.conf示例:

  2.  
  3. [Journal]

  4. #Storage=auto 存储为自动模式, 其他模式有无日志模式, 纯内存模式和纯磁盘模式

  5. #Compress=yes 默认启动压缩功能

  6. #Seal=yes 默认加密, 日志文件为二进制文件, 无法 vim或tail 查看

  7. #SplitMode=uid

  8. #SyncIntervalSec=5m

  9. #RateLimitIntervalSec=30s

  10. #RateLimitBurst=1000

  11. #SystemMaxUse= 精确设置日志可以占用的最大磁盘空间

  12. #SystemKeepFree= 保证系统剩余的空间大小

  13. #SystemMaxFileSize=

  14. #SystemMaxFiles=100

  15. #RuntimeMaxUse=

  16. #RuntimeKeepFree=

  17. #RuntimeMaxFileSize=

  18. #RuntimeMaxFiles=100

  19. #MaxRetentionSec=

  20. #MaxFileSec=1month

  21. #ForwardToSyslog=no

  22. #ForwardToKMsg=no

  23. #ForwardToConsole=no

  24. #ForwardToWall=yes

  25. #TTYPath=/dev/console

  26. #MaxLevelStore=debug

  27. #MaxLevelSyslog=debug

  28. #MaxLevelKMsg=notice

  29. #MaxLevelConsole=info

  30. #MaxLevelWall=emerg

journald 默认配置下, 默认日志最大限制为所在文件系统容量的 10%

默认配置下, journald 的日志存放在 /var/log/journal 下, 如果该目录在根分区下, 且根分区空间大小为10G, 那么 journald 存放日志最大的大小为1G, 超出1G 后将删除最早的日志

也可以精确指定占用的空间大小:

SystemMaxUse=50M

journalctl基本用法

  • journalctl 从头查看所有日志

  • journalctl -b 查看本次开机后的所有系统引导日志

  • journalctl -b -1 显示上次开机后的系统引导日志, 以此类推

  • journalctl -f 类似于 tail -f或tailf

  • journalctl /usr/bin/dockerd 后加程序的绝对路径,可以显示该程序的所有日志信息

  • journalctl -xe systemd 启动程序失败时会提示你使用这个命令查看错误信息, 其中x 表示在日志输出中增加一些解释性的短文本, e表示立即跳转至日志的尾部

journald注意事项

journald配置中,有两个非常重要的优化项目:

 
  1. ForwardToSyslog=yes

  2. ForwardToWall=yes

以上两个参数默认都是 yes 意味着 journald 收集日志后还会转发到 syslog 中

由此造成的影响是: journald 虽然可以乖乖的按照上面的配置进行日志的清理, 但是 syslog 却不在 journald 的控制范围之内

在日志量很大的情况下,syslog中的日志量也变得巨大,所以我们需要把上面两个参数的值改为no

重启journald服务:

systemctl restart systemd-journald.service
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://ip0m9guf.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值