使用Logstash收集日志输出到ES通过Kibana做日志分析

一、安装ES、Logstash、Kibana

安装步骤略过

docker pull elasticsearch:7.8.0
docker pull logstash:7.8.0
docker pull kibana:7.8.0

在这里插入图片描述
由于云服务器配置太低,使用docker启动不起来。(使用本地的虚拟机)

二、配置yml

pom依赖

    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.3.3.RELEASE</version>
        <relativePath/>
   	</parent>
	<dependency>
           <groupId>net.logstash.logback</groupId>
           <artifactId>logstash-logback-encoder</artifactId>
           <version>5.2</version>
    </dependency>
spring:
  application:
    name: wxpublic
logging:
  config: classpath:logback-spring.xml
logstash:
  host: 192.168.103.10

三、配置logback_spring.xml日志文件

新建mysqletc/mylog.conf文件
在这里插入图片描述

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true">
    <!--引用默认日志配置-->
    <include resource="org/springframework/boot/logging/logback/defaults.xml"/>
    <!--使用默认的控制台日志输出实现-->
    <include resource="org/springframework/boot/logging/logback/console-appender.xml"/>
    <!--应用名称-->
    <springProperty scope="context" name="APP_NAME" source="spring.application.name" defaultValue="springBoot"/>
    <!--日志文件保存路径-->
    <property name="LOG_FILE_PATH" value="${LOG_FILE:-${LOG_PATH:-${LOG_TEMP:-${java.io.tmpdir:-/tmp}}}/logs}"/>
    <!--LogStash访问host-->
    <springProperty name="LOG_STASH_HOST" scope="context" source="logstash.host" defaultValue="192.168.103.10"/>


    <!--DEBUG日志输出到LogStash-->
    <appender name="LOG_STASH_DEBUG" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>DEBUG</level>
        </filter>
        <destination>${LOG_STASH_HOST}:4560</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <providers>
                <timestamp>
                    <timeZone>Asia/Shanghai</timeZone>
                </timestamp>
                <!--自定义日志输出格式-->
                <pattern>
                    <pattern>
                        {
                        "project": "wxpublic",
                        "level": "%level",
                        "service": "${APP_NAME:-}",
                        "pid": "${PID:-}",
                        "thread": "%thread",
                        "class": "%logger",
                        "message": "%message",
                        "stack_trace": "%exception{20}"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
        <!--当有多个LogStash服务时,设置访问策略为轮询-->
<!--        <connectionStrategy>-->
<!--            <roundRobin>-->
<!--                <connectionTTL>5 minutes</connectionTTL>-->
<!--            </roundRobin>-->
<!--        </connectionStrategy>-->
    </appender>

    <!--ERROR日志输出到LogStash-->
    <appender name="LOG_STASH_ERROR" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <level>ERROR</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <destination>${LOG_STASH_HOST}:4561</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <providers>
                <timestamp>
                    <timeZone>Asia/Shanghai</timeZone>
                </timestamp>
                <!--自定义日志输出格式-->
                <pattern>
                    <pattern>
                        {
                        "project": "wxpublic",
                        "level": "%level",
                        "service": "${APP_NAME:-}",
                        "pid": "${PID:-}",
                        "thread": "%thread",
                        "class": "%logger",
                        "message": "%message",
                        "stack_trace": "%exception{20}"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
        <!--当有多个LogStash服务时,设置访问策略为轮询-->
<!--        <connectionStrategy>-->
<!--            <roundRobin>-->
<!--                <connectionTTL>5 minutes</connectionTTL>-->
<!--            </roundRobin>-->
<!--        </connectionStrategy>-->
    </appender>

    <root level="INFO">
        <appender-ref ref="CONSOLE"/>
        <appender-ref ref="LOG_STASH_DEBUG"/>
        <appender-ref ref="LOG_STASH_ERROR"/>
    </root>

</configuration>

四、配置logstash信息

input {
  tcp {
    mode => "server"
    host => "0.0.0.0"
    port => 4560
    codec => json_lines
  }
 tcp {
    mode => "server"
    host => "0.0.0.0"
    port => 4561
    codec => json_lines
    type => "error"
  }
}
output {
  elasticsearch {
	  #ESIP地址与端口
	  hosts => "192.168.103.10:9200"
	  #ES索引名称(自己定义的)
	  index => "mylog"
	   }
  stdout {
      #以JSON格式输出
      codec => json_lines
  		}
}

启动测试

启动es

进入bin目录./elasticsearch -d -d是后台启动(注意切换es用户,root用户无法启动)

启动Logstash

进入bin目录./logstash -f ../mysqletc/wxlog.conf
在这里插入图片描述

启动Kibana

./kibana &,浏览器访问IP+5601(注意切换es用户,root用户无法启动)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Logstash可以将处理过的数据输出到Elasticsearch,实现数据的存储和检索。具体的步骤如下: 1. 在Logstash的配置文件,添加Elasticsearch的输出插件,指定Elasticsearch的地址和索引名称等参数。 2. 启动Logstash,它会读取指定的数据源,对数据进行处理,并将处理后的数据输出到Elasticsearch。 3. 在Elasticsearch,可以使用Kibana等工具进行数据的可视化和检索。 总的来说,Logstash和Elasticsearch是一对非常强大的组合,可以帮助我们快速构建数据处理和检索系统。 ### 回答2: Logstash是一个用于数据收集、处理和转换的工具,可以从不同的源获取数据并将其输出到各种目标存储。而Elasticsearch则是一个开源的分布式搜索引擎,它能够在高效、安全、可伸缩的基础上索引与搜索海量实时数据。 Logstash输出到Elasticsearch,是一种常见的数据处理和存储的方案,也是Elastic Stack(ELK)的一部分。这种方案可以结合多个数据源和数据格式,并通过logstash进行数据转换和处理,最终将收集的数据存储到Elasticsearch,同时在Kibana进行数据展示和分析。 为了实现这种方案,需要在Logstash配置Elasticsearch插件,通过设置输出插件的类型和参数来指定Elasticsearch作为输出目标。在数据从不同收集后,Logstash会将其进行过滤和转换处理,然后将处理后的数据输出到Elasticsearch。 当数据存储到Elasticsearch后,可以使用Kibana进行数据展示和分析。通过Kibana的图表和仪表盘 ,我们可以对数据进行实时监控,进行查询分析和可视化。同时,Elasticsearch还具有高效、可伸缩的实时搜索和分布式存储特性,可以支持海量数据的存储和查询。 总的来说,Logstash输出到Elasticsearch是一个实现实时数据收集和分析的强大工具和技术,可以帮助我们更好的理解数据,以便出更好的决策和优化业务。 ### 回答3: Logstash是一种开源数据收集引擎,可以将不同来源的数据进行过滤、转换和聚合,最终输出不同目的地。其输出到Elasticsearch是最常见的用例之一。 首先,我们需要安装和配置Logstash和Elasticsearch。Logstash的配置文件需要指定输出插件为Elasticsearch,并配置Elasticsearch的IP地址和端口等参数。例如: ``` output { elasticsearch { hosts => ["127.0.0.1:9200"] index => "myindex-%{+YYYY.MM.dd}" } } ``` 上面的配置表示将数据输出到本地的Elasticsearch实例,并将索引的名称设为“myindex-年月日”的格式,可以实现按天切分索引,方便后续的查询和维护。 在Logstash,我们可以使用不同的插件对数据进行处理和转换,以满足不同的需求。比如,使用grok插件将日志的格式化信息提取出来,使用date插件解析时间戳等等。这些插件都可以在Logstash的插件库找到,也可以自己编写插件满足特定的需求。 在输出到Elasticsearch时,Logstash会将数据转化为JSON格式,并根据指定的索引名称和类型进行索引。Elasticsearch提供了强大的搜索和聚合功能,可以对数据进行复杂的查询和分析。同时,Elasticsearch也支持分布式架构,可以横向扩展以处理海量数据和高并发量。 总之,Logstash输出到Elasticsearch是一种非常方便和实用的数据处理和分析方案,实现了数据的集化和可视化,可以帮助我们更好地理解和利用数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Liu_Shihao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值