ELK(7.6.1)下载安装与springboot整合ELK

一、ELK简介
1.Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。

2.Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用。Logstash 简单来说就是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端,与此同时这根管道还可以让你根据自己的需求在中间加上滤网。

3.Kibana 也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面(可视化),可以帮助用户汇总、分析和搜索重要数据日志。

在这里插入图片描述
二、下载安装
1.elasticsearch(7.6.1)
(1)下载地址https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.1-windows-x86_64.zip
(2)下载完成解压即可
(3)启动
双击bin文件下的elasticsearch.bat,等待命令框执行完毕,然后在浏览器中输入 http://localhost:9200 ,出现如下界面即可
在这里插入图片描述

2.kibana(7.6.1)
(1)下载地址
https://artifacts.elastic.co/downloads/kibana/kibana-7.6.1-windows-x86_64.zip
(2)下载完成解压即可
(3)启动
双击bin文件下的 kibana.bat,等待命令框执行完毕,然后在浏览器中输入 http://localhost:5601 ,出现如下界面即可
在这里插入图片描述
3.logstash(7.6.1)
(1)下载地址
https://artifacts.elastic.co/downloads/logstash/logstash-7.6.1.zip
(2)下载完成后解压,然后在bin目录下新建 logstash.conf 文件(以下是示例配置,验证是否安装成功,与springboot整合配置请继续往下看),配置如下:

 input {
 file {
    path => ["E:/ELK/localhost_access_log.*.txt"]    #这是日志存储地址,可以自己配置
    start_position => "beginning"
 }
}

filter {
  date {
     match => [ "timestamp" , "YYYY-MM-dd HH:mm:ss" ]
  }
}

 output {
   elasticsearch {
      hosts => ["127.0.0.1:9200"]
   }
   stdout {
      codec => rubydebug
   }
}

(3)启动
进入bin文件目录命令框,输入 logstash -f logstash.conf ,等待命令框执行完毕,出现 Successfully started Logstash API endpoint {:port=>9600} 字样代表安装成功
在这里插入图片描述
三、springboot整合 ELK
1.修改 logstash.conf 为:

input {
    tcp {  
        host => "localhost"       
        port => 9601                #和 logback.xml中<destination>localhost:9601</destination>保持一致
        mode => "server"         #模式选择为server
        tags => ["tags"]  

##格式json  
    codec => json_lines         
}  

 } 

output {
elasticsearch {
    hosts => "127.0.0.1:9200"
    index => "applog"      #applog是一个名字,随便取
}
stdout { codec => rubydebug}
}

2.在springboot项目中resources文件下新建 logback.xml 文件,配置如下:

<?xml version="1.0" encoding="UTF-8"?>
<!--该日志将日志级别不同的log信息保存到不同的文件中 -->
<configuration>
<appender name="LOGSTASH"
          class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <destination>localhost:9601</destination>
    <!-- encoder必须配置,有多种可选 -->
    <encoder charset="UTF-8"
             class="net.logstash.logback.encoder.LogstashEncoder" >
        <!-- "appname":"zhaopin" 的作用是指定创建索引的名字时用,并且在生成的文档中会多了这个字段  -->
        <customFields>{"appname":"zhaopin"}</customFields>
    </encoder>
</appender>

<!-- ch.qos.logback.core.ConsoleAppender 表示控制台输出 -->
<appender name="stdout" class="ch.qos.logback.core.ConsoleAppender">
    <!--
    日志输出格式:
		%d表示日期时间,
		%thread表示线程名,
		%-5level:级别从左显示5个字符宽度
		%logger{50} 表示logger名字最长50个字符,否则按照句点分割。
		%msg:日志消息,
		%n是换行符
    -->
    <layout class="ch.qos.logback.classic.PatternLayout">
        <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} ----> [%thread] ---> %-5level %logger{50} - %msg%n</pattern>
    </layout>
</appender>

<!--
	logger主要用于存放日志对象,也可以定义日志类型、级别
	name:表示匹配的logger类型前缀,也就是包的前半部分
	level:要记录的日志级别,包括 TRACE < DEBUG < INFO < WARN < ERROR
	additivity:作用在于children-logger是否使用 rootLogger配置的appender进行输出,
	false:表示只用当前logger的appender-ref,true:
	表示当前logger的appender-ref和rootLogger的appender-ref都有效
-->
<!-- hibernate logger -->
<logger name="com.shawwang" level="debug" />
<!-- Spring framework logger -->
<logger name="org.springframework" level="debug" additivity="false"></logger>

<root level="INFO">
    <appender-ref ref="stdout" />
    <appender-ref ref="LOGSTASH" />
</root>

3.在pom.xml中添加依赖

	<dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter</artifactId>
        <exclusions>
            <exclusion>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-logging</artifactId>
            </exclusion>
        </exclusions>
    </dependency>
    <dependency>
        <groupId>ch.qos.logback</groupId>
        <artifactId>logback-classic</artifactId>
    </dependency>
    <dependency>
        <groupId>net.logstash.logback</groupId>
        <artifactId>logstash-logback-encoder</artifactId>
        <version>4.10</version>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
        <scope>test</scope>
    </dependency>

4.测试
(1)新建controller文件

import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
@RequestMapping(value = "/test")
public class LogTestController {

Logger logger = LoggerFactory.getLogger(LogTestController.class);

@GetMapping("/test")
public String test(){
    logger.info("你好啊e");
    return "server被调用了!:" ;
}
}

(2)新建启动文件

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;

@SpringBootApplication
public class ElkApplication  {

public static void main(String[] args) {
    SpringApplication.run(ElkApplication.class, args);
}

}

(3)依次启动 elasticsearch、logstash、kibana
(4)运行启动文件
(5)浏览器输入 localhost:5601

1.运行测试用例后回到kibana界面,Management --> Index Patterns,填入Logstash配置中index的值,此处为applog ,记得要加*哦
在这里插入图片描述

2.第二步 此处选择"@timestamp"

在这里插入图片描述

3.回到Discover
在这里插入图片描述

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spring Boot可以很容易地集成ElasticSearch作为日志存储,然后使用Logstash将日志从Spring Boot应用程序传输到ElasticSearch,最后可以使用Kibana进行数据可视化。 以下是实现Spring Boot整合ELK的基本步骤: 1. 安装ElasticSearch,Logstash和Kibana。 2. 当Spring Boot应用程序运行时,将日志记录到文件中。 3. 使用Logstash配置文件来监控日志文件,并将数据发送到ElasticSearch。 4. 在Kibana中创建一个索引模式来解析ElasticSearch中的数据。 5. 创建仪表板和可视化,以显示日志数据。 下面是一个简单的Logstash配置文件,将日志文件发送到ElasticSearch: ``` input { file { path => "/path/to/spring-boot-app.log" sincedb_path => "/dev/null" start_position => "beginning" } } filter { grok { match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} %{LOGLEVEL:loglevel} \[%{DATA:thread}\] %{DATA:class} - %{GREEDYDATA:logmessage}" } } } output { elasticsearch { hosts => [ "localhost:9200" ] index => "spring-boot-app-logs-%{+YYYY.MM.dd}" } stdout { codec => rubydebug } } ``` 这个配置文件使用Grok来解析日志文件中的日志条目,并将其发送到ElasticSearch中的名为“spring-boot-app-logs”索引的索引中。stdout输出是可选的,它允许将数据输出到控制台进行调试。 在使用Logstash转发日志数据之前,确保运行ElasticSearch和Kibana,并且ElasticSearch集群和索引模式已经设置好。在Kibana中,您可以通过“索引模式”页面创建新的索引模式。在这个页面上,您需要指定ElasticSearch索引的名称模式,并为每个字段定义Type。 创建模式后,您可以使用可视化编辑器创建仪表板和可视化,以显示日志数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值