Spring Cloud 分布式实时日志分析采集三种方案~

574202d1161b525edd559bc9b4b2567f.jpeg

👉 欢迎加入小哈的星球 ,你将获得: 专属的项目实战/ Java 学习路线 / 一对一提问 / 学习打卡/ 赠书福利

目前, 正在星球内部带小伙伴做第一个项目:全栈前后端分离博客,手摸手,后端 + 前端全栈开发,从 0 到 1 讲解每个功能点开发步骤,1v1 答疑,直到项目上线。目前已更新了156小节,累计24w+字,讲解图:1027张,还在持续爆肝中.. 后续还会上新更多项目,目标是将Java领域典型的项目都整一波,如秒杀系统, 在线商城, IM即时通讯,Spring Cloud Alibaba 等等,戳我加入学习,已有510+小伙伴加入(早鸟价超低)

ELK 已经成为目前最流行的集中式日志解决方案,它主要是由BeatsLogstashElasticsearchKibana等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本文将会介绍ELK常见的架构以及相关问题解决。

  1. Filebeat:Filebeat是一款轻量级,占用服务资源非常少的数据收集引擎,它是ELK家族的新成员,可以代替Logstash作为在应用服务器端的日志收集引擎,支持将收集到的数据输出到Kafka,Redis等队列。

  2. Logstash:数据收集引擎,相较于Filebeat比较重量级,但它集成了大量的插件,支持丰富的数据源收集,对收集的数据可以过滤,分析,格式化日志格式。

  3. Elasticsearch:分布式数据搜索引擎,基于Apache Lucene实现,可集群,提供数据的集中式存储,分析,以及强大的数据搜索和聚合功能。

  4. Kibana:数据的可视化平台,通过该web平台可以实时的查看 Elasticsearch 中的相关数据,并提供了丰富的图表统计功能。

ELK常见部署架构

1. Logstash作为日志收集器

这种架构是比较原始的部署架构,在各应用服务器端分别部署一个Logstash组件,作为日志收集器,然后将Logstash收集到的数据过滤、分析、格式化处理后发送至Elasticsearch存储,最后使用Kibana进行可视化展示。

这种架构不足的是:Logstash比较耗服务器资源,所以会增加应用服务器端的负载压力。

9c029d32942ccac354a83719c7c40252.png
图片

2. Filebeat作为日志收集器

该架构与第一种架构唯一不同的是:应用端日志收集器换成了Filebeat,Filebeat轻量,占用服务器资源少,所以使用Filebeat作为应用服务器端的日志收集器,一般Filebeat会配合Logstash一起使用,这种部署方式也是目前最常用的架构。

bb19d0eba2de0dc0a9301c0653ef9373.png
图片

3 引入缓存队列的部署架构

该架构在第二种架构的基础上引入了Kafka消息队列(还可以是其他消息队列),将Filebeat收集到的数据发送至Kafka,然后在通过Logstasth读取Kafka中的数据,这种架构主要是解决大数据量下的日志收集方案,使用缓存队列主要是解决数据安全与均衡Logstash与Elasticsearch负载压力。

96038a89c3b8b8a7cca3a4a0a1c935bb.png
图片

4. 以上三种架构的总结

第一种部署架构由于资源占用问题,现已很少使用,目前使用最多的是第二种部署架构,至于第三种部署架构个人觉得没有必要引入消息队列,除非有其他需求,因为在数据量较大的情况下,Filebeat 使用压力敏感协议向 Logstash 或 Elasticsearch 发送数据。

如果 Logstash 正在繁忙地处理数据,它会告知 Filebeat 减慢读取速度。拥塞解决后,Filebeat 将恢复初始速度并继续发送数据。

问题及解决方案

1. 问题:如何实现日志的多行合并功能?

系统应用中的日志一般都是以特定格式进行打印的,属于同一条日志的数据可能分多行进行打印,那么在使用ELK收集日志的时候就需要将属于同一条日志的多行数据进行合并。

解决方案:使用Filebeat或Logstash中的multiline多行合并插件来实现

在使用multiline多行合并插件的时候需要注意,不同的ELK部署架构可能multiline的使用方式也不同,如果是本文的第一种部署架构,那么multiline需要在Logstash中配置使用,如果是第二种部署架构,那么multiline需要在Filebeat中配置使用,无需再在Logstash中配置multiline。

1、multiline在Filebeat中的配置方式:

filebeat.prospectors:
    -
     paths:
          - /home/project/elk/logs/test.log
     input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
output:
   logstash:
      hosts: ["localhost:5044"]
  • pattern:正则表达式

  • negate:默认为false,表示匹配pattern的行合并到上一行;true表示不匹配pattern的行合并到上一行

  • match:after表示合并到上一行的末尾,before表示合并到上一行的行首

如:

pattern: '\['
negate: true
match: after

该配置表示将不匹配pattern模式的行合并到上一行的末尾

2、multiline在Logstash中的配置方式

input {
    beats {
    port => 5044
}
}

filter {
    multiline {
        pattern => "%{LOGLEVEL}\s*\]"
        negate => true
        what => "previous"
    }
}

output {
    elasticsearch {
    hosts => "localhost:9200"
    }
}

(1)Logstash中配置的what属性值为previous,相当于Filebeat中的after,Logstash中配置的what属性值为next,相当于Filebeat中的before。

(2)pattern => "%{LOGLEVEL}\s*\]" 中的LOGLEVEL是Logstash预制的正则匹配模式,预制的还有好多常用的正则匹配模式,详细请看:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

2. 问题:如何将Kibana中显示日志的时间字段替换为日志信息中的时间?

默认情况下,我们在Kibana中查看的时间字段与日志信息中的时间不一致,因为默认的时间字段值是日志收集时的当前时间,所以需要将该字段的时间替换为日志信息中的时间。

解决方案:使用grok分词插件与date时间格式化插件来实现

在Logstash的配置文件的过滤器中配置grok分词插件与date时间格式化插件,如:

input {
    beats {
    port => 5044
    }
}

filter {
    multiline {
        pattern => "%{LOGLEVEL}\s*\]\[%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME}\]"
        negate => true
        what => "previous"
}

grok {
 match => [ "message" , "(?<customer_time>%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME})" ]
}

date {
     match => ["customer_time", "yyyyMMdd HH:mm:ss,SSS"] //格式化时间
     target => "@timestamp" //替换默认的时间字段
    }
}

output {
    elasticsearch {
    hosts => "localhost:9200"
    }
}

如要匹配的日志格式为:[DEBUG][20170811 10:07:31,359][DefaultBeanDefinitionDocumentReader:106] Loading bean definitions,解析出该日志的时间字段的方式有:

① 通过引入写好的表达式文件,如表达式文件为customer_patterns,内容为:CUSTOMER_TIME %{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME}

注:内容格式为:[自定义表达式名称] [正则表达式]

然后logstash中就可以这样引用:

filter {
    grok {
    patterns_dir => ["./customer-patterms/mypatterns"] //引用表达式文件路径
    match => [ "message" , "%{CUSTOMER_TIME:customer_time}" ] //使用自定义的grok表达式
    }
}

② 以配置项的方式,规则为:(?<自定义表达式名称>正则匹配规则),如:

filter {
    grok {
    match => [ "message" , "(?<customer_time>%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME})" ]
    }
}

3. 问题:如何在Kibana中通过选择不同的系统日志模块来查看数据

一般在Kibana中显示的日志数据混合了来自不同系统模块的数据,那么如何来选择或者过滤只查看指定的系统模块的日志数据?

解决方案:新增标识不同系统模块的字段或根据不同系统模块建ES索引

1、新增标识不同系统模块的字段,然后在Kibana中可以根据该字段来过滤查询不同模块的数据,这里以第二种部署架构讲解,在Filebeat中的配置内容为:

filebeat.prospectors:
    -
   paths:
  - /home/project/elk/logs/account.log
   input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
   fields: //新增log_from字段
      log_from: account

    -
   paths:
  - /home/project/elk/logs/customer.log
   input_type: log
   multiline:
      pattern: '^\['
      negate: true
      match: after
   fields:
      log_from: customer
output:
   logstash:
      hosts: ["localhost:5044"]

通过新增:log_from字段来标识不同的系统模块日志

2、根据不同的系统模块配置对应的ES索引,然后在Kibana中创建对应的索引模式匹配,即可在页面通过索引模式下拉框选择不同的系统模块数据。

filebeat.prospectors:
    -
   paths:
  - /home/project/elk/logs/account.log
     input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
   fields: //新增log_from字段
      log_from: account
    -
   paths:
  - /home/project/elk/logs/customer.log
   input_type: log
   multiline:
      pattern: '^\['
      negate: true
      match: after
   fields:
      log_from: customer
output:
   logstash:
      hosts: ["localhost:5044"]

这里以第二种部署架构讲解,分为两步:

① 在Filebeat中的配置内容为:

filebeat.prospectors:
    -
     paths:
      - /home/project/elk/logs/account.log
     input_type: log
     multiline:
       pattern: '^\['
       negate: true
       match: after
     document_type: account

    -
     paths:
      - /home/project/elk/logs/customer.log
     input_type: log
     multiline:
       pattern: '^\['
       negate: true
       match: after
     document_type: customer
output:
    logstash:
    hosts: ["localhost:5044"]

通过document_type来标识不同系统模块

② 修改Logstash中output的配置内容为:

output {
    elasticsearch {
    hosts => "localhost:9200"
    index => "%{type}"
    }
}

在output中增加index属性,%{type}表示按不同的document_type值建ES索引

总结

本文主要介绍了ELK实时日志分析的三种部署架构,以及不同架构所能解决的问题,这三种架构中第二种部署方式是时下最流行也是最常用的部署方式。

最后介绍了ELK作在日志分析中的一些问题与解决方案,说在最后,ELK不仅仅可以用来作为分布式日志数据集中式查询和管理,还可以用来作为项目应用以及服务器资源监控等场景,更多内容请看官网。

👉 欢迎加入小哈的星球 ,你将获得: 专属的项目实战/ Java 学习路线 / 一对一提问 / 学习打卡/ 赠书福利

目前, 正在星球内部带小伙伴做第一个项目:全栈前后端分离博客,手摸手,后端 + 前端全栈开发,从 0 到 1 讲解每个功能点开发步骤,1v1 答疑,直到项目上线。目前已更新了156小节,累计24w+字,讲解图:1027张,还在持续爆肝中.. 后续还会上新更多项目,目标是将Java领域典型的项目都整一波,如秒杀系统, 在线商城, IM即时通讯,Spring Cloud Alibaba 等等,戳我加入学习,已有510+小伙伴加入(早鸟价超低)

 
 

d9c4acdd569b561cc66a14a2df756584.png

 
 
 
 
 
 
 
 
 
 

dbd08a562d3c515aebb892888e811134.gif

 
 
 
 
 
 

1. 我的私密学习小圈子~

2. 优秀的架构师是怎样绘制系统架构蓝图的?

3. 7k Star,一款开源的 Kafka 管理平台,功能齐全、页面美观!

4. 持续交付,说说 Jenkins 高速流水线

7c8cb568e556f6e9081fed514403fef9.gif

最近面试BAT,整理一份面试资料《Java面试BATJ通关手册》,覆盖了Java核心技术、JVM、Java并发、SSM、微服务、数据库、数据结构等等。
获取方式:点“在看”,关注公众号并回复 Java 领取,更多内容陆续奉上。
PS:因公众号平台更改了推送规则,如果不想错过内容,记得读完点一下“在看”,加个“星标”,这样每次新文章推送才会第一时间出现在你的订阅列表里。
点“在看”支持小哈呀,谢谢啦
### 回答1: SpringCloud是一款用于构建微服务架构的开源框架,它提供了一整套完善的组件,帮助开发者快速搭建和管理分布式系统中的服务。海康威视作为全球领先的视频监控产品和解决方案提供商,也提供了一系列的软件开发工具包(SDK),以便开发者能够快速集成海康威视的产品和技术。 要在SpringCloud中集成海康SDK,首先需要将SDK下载下来,并按照海康提供的文档进行安装和配置。然后,可以将SDK集成到SpringCloud微服务架构中的一个或多个服务中,以便实现视频监控、智能分析、云存储等功能。 在集成SDK的过程中,需要注意一些事项: 1. 确保SDK版本和SpringCloud版本兼容,避免出现不兼容的问题。 2. 需要根据实际需求选择SDK中的功能模块进行集成,避免浪费资源和影响系统性能。 3. 在集成过程中,要充分测试SDK的功能和性能,以确保其稳定性和可靠性。 总之,将海康SDK集成到SpringCloud微服务架构中,能够为用户提供更加方便、高效、可靠和安全的视频监控和智能分析服务,符合当前互联网和物联网发展的趋势。 ### 回答2: SpringCloud是一个优秀的微服务框架,可以帮助开发者实现快速构建和部署应用程序的目的,同时海康SDK是一个专业的视频监控设备开发平台,也是全球领先的监控产品厂家之一。把这两个东西结合在一起,可以在各个应用场景中广泛应用,比如智能家居、智能交通、智慧城市等领域。 要实现SpringCloud集成海康SDK,首先需要在SpringCloud中构建一个视频监控模块,该模块会调用海康SDK提供的API来获取视频监控设备的状态,并将数据存储到数据库中,以供后续使用。在具体操作中,需要遵循以下步骤: 1.在SpringCloud项目中引入海康SDK相关的依赖库。 2.编写视频监控模块,可以使用SpringCloud提供的Maven构建工具,主要包括视频设备API接口、视频设备状态管理等。同时,需要同时编写海康SDK相关的API接口,这样才能获取到视频设备的相关信息。 3.在SpringCloud项目中创建数据库表,以存储海康SDK获取的视频监控设备状态信息。 4.通过SpringCloud的服务发现机制,将视频监控模块注册到服务中心中,以便其他模块能够方便地调用。 5.实现监控设备状态的查询、设备状态的修改、设备状态的删除等功能,同时也要兼容其他服务模块,比如权限管理模块、用户管理模块等。 6.最后需要进行测试和部署,以验证该视频监控模块的功能是否正常,是否符合预期。可以使用Postman等API测试工具对接口进行测试,也可以使用Docker等容器技术进行部署。 总之,SpringCloud集成海康SDK是一个非常有技术挑战的过程,需要我们熟练掌握SpringCloud框架和海康SDK的技术架构,同时也需要对视频监控设备相关的知识有一定的了解。但只要我们充分发挥自己的技术能力,积极学习和实践,就一定能够成功地实现SpringCloud集成海康SDK这一复杂的技术需求。 ### 回答3: Spring Cloud是一个基于Spring Framework的云原生应用开发框架,它可以帮助开发者更加轻松地构建、部署和管理应用程序。海康SDK是一个视频监控系统的开发工具包,通过海康SDK,可以轻松实现视频流的采集、存储、回放等功能。那么如何将这两个东西结合起来呢? 首先,需要在Spring Cloud项目中引入海康SDK的相关依赖,可以通过Maven或Gradle进行引入。接着,需要编写相关的Java代码来与海康SDK进行交互,例如进行摄像头的初始化、视频流的采集等操作。在编写代码时,需要注意以下几点: 1. 需要根据不同的海康SDK版本进行相应的引用和调用; 2. 需要由专门的海康SDK开发人员来对接海康SDK,以保证代码的可用性和稳定性; 3. 需要加强对海康SDK的异常处理和错误处理,以避免出现不必要的问题和风险。 在集成了海康SDK之后,可以通过Spring Cloud的服务治理、负载均衡等功能来实现对海康SDK的资源调度和管理。同时,也可以结合Spring Cloud的监控、日志、容错等功能,对视频监控系统进行更加全面和细致的管理和控制。 总体来说,Spring Cloud集成海康SDK可以帮助开发者快速构建稳定、高效和安全的视频监控系统,实现更好的视频监控体验和用户体验。但是需要注意的是,集成海康SDK需要有专业的技术支持和开发经验,以保证系统的稳定性和正常运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值