logback传输日志到logstash根据自定义设置动态创建ElasticSearch索引

那么问题来了 不能每个小应用都配置一个 logstash 服务来传输日志吧,把所有的日志都 输送到一个logstash里面  然后logstash会都输送到一个索引下(之前不知道怎么配),输送到同一个所以下 那么问题又来了,首先每个小服务程序日志量不大希望持续监控,也不需要用时间来分割(因为日志量不大),又希望查询方便(不要告诉我查询的时候多一个筛选条件就可以了,俺就是不想那样嫌乱不好找)。所有有了下面的解决方案

 

首先本人用的日志框架是logback,使用

     <dependency>
            <groupId>net.logstash.logback</groupId>
            <artifactId>logstash-logback-encoder</artifactId>
            <version>4.11</version>
        </dependency>

这个包进行 socket向lostash进行日志输送

以下为重点

首先通读上面pom文件依赖的开源包文档net.logstash.logback,连接地址为:https://github.com/logstash/logstash-logback-encoder

看完之后马上回来,就会明白我下面说的

首先配置logback.xml日志

复制代码
<?xml version="1.0" encoding="UTF-8"?>
<configuration debug="false" scan="true" scanPeriod="1 seconds">
    <include resource="org/springframework/boot/logging/logback/base.xml" />
    <!-- <jmxConfigurator/> -->
    <contextName>logback</contextName>

    <property name="log.path" value="E:\\123456\\logback.log" />

    <property name="log.pattern"
        value="%d{yyyy-MM-dd HH:mm:ss.SSS} -%5p ${PID} --- [%15.15t] %-40.40logger{39} : %m%n" />

    
    <appender name="file"
        class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}</file>

        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>

        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">

            <fileNamePattern>info-%d{yyyy-MM-dd}-%i.log
            </fileNamePattern>

            <timeBasedFileNamingAndTriggeringPolicy
                class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">

                <maxFileSize>10MB</maxFileSize>
            </timeBasedFileNamingAndTriggeringPolicy>
            <maxHistory>10</maxHistory>
        </rollingPolicy>
    </appender>

    
    <!-- 上传到那个服务器接口 -->
< appender name ="api-logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
< destination >10.10.129.35:4569</destination>
  <!-- <destination>destination1.domain.com:4560</destination> 
        <destination>destination2.domain.com:4560</destination> 
        <destination>destination3.domain.com:4560</destination> -->
<!-- encoder必须配置,有多种可选 --> < encoder charset ="UTF-8" class ="net.logstash.logback.encoder.LogstashEncoder" > < customFields >{"appname":"myapp"} </ customFields > </ encoder >  <keepAliveDuration>5 minutes</keepAliveDuration>  </ appender >

    <!-- 异步写入日志 -->
    <appender name="api-async" class="ch.qos.logback.classic.AsyncAppender">        
        <appender-ref ref="api-logstash"/>        
        <queueSize>8192</queueSize>        
        <discardingThreshold>0</discardingThreshold>    
    </appender>
 
 
 
 
      
    <!-- 指定监控那个日志类 -->
    <logger name="cn.com.pg.sso.monitor.MonitorInterceptor" level="INFO">       
        <appender-ref ref="api-async"/>    
    </logger>
</configuration>

哦忘了解释一下

<keepAliveDuration>5 minutes</keepAliveDuration> 

这个配置是 向logstash输出日志如果有多个logstash IP或端口可以轮询负载各端口

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
Elasticsearch是一个开源的分布式搜索和分析引擎,可以用于存储、搜索和分析大量的数据。它被广泛用于处理日志数据,并提供了灵活的搜索和可视化功能。 Logback是一个Java日志框架,可以帮助开发人员记录和管理应用程序的日志信息。它支持多种输出方式,包括控制台、文件和数据库等。LogbackElasticsearch结合使用,可以直接将日志写入Elasticsearch中,从而实现在Kibana中进行方便的日志查看和分析。 通常情况下,使用ELK(ElasticsearchLogstash和Kibana)组合来处理日志数据。Logstash是一个用于收集、处理和传输日志数据的工具,可以将日志数据从各种来源(如文件、数据库、消息队列等)发送到Elasticsearch中。但在一些轻量级项目中,可以直接利用Logbackappender日志数据写入Elasticsearch,避免引入额外的组件和配置。 使用Logback日志写入Elasticsearch的具体步骤如下: 1. 导入LogbackElasticsearch的相关依赖。 2. 在logback-spring.xml(或其他Logback配置文件)中配置Elasticsearchappender。 3. 根据配置,日志会自动汇聚到Elasticsearch中的logback-*索引中。可以根据需要,每月创建一个新的索引,方便进行查看和分析。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Springboot 使用logback直接将日志写入Elasticsearch,再通过kibana查看](https://blog.csdn.net/qq_31745863/article/details/124705261)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [logback输出日志elasticsearch方案](https://blog.csdn.net/weixin_36647532/article/details/89705743)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值