【全文检索_11】Logstash 基本使用

1.1 基本介绍

1.1.1 工作原理

  Logstash 是由 JRuby 编写的,使用基于消息的简单架构,在 JVM 上运行(本篇博客主要介绍 Logstash 基本使用,介绍请见 ☞【全文检索_09】Logstash 基本介绍)。Logstash 的事件处理流水线有三个主要角色完成:inputs → filters → outputs。必须定义这些过程的配置才能使用 Logstash,尽管不是每一个都必须的。在过滤器的部分,它可以对数据源的数据进行分析,丰富,处理等等,但是我们可以不使用过滤器。在输出的部分,我们可以有多于一个以上的输出。

在这里插入图片描述

1.1.2 各组件可用插件

在这里插入图片描述


1.1.3 启动参数

参数说明举例
-e立即执行,使用命令行里的配置参数启动实例./bin/logstash -e 'input { stdin {} } output { stdout {} }'
-f指启动实例的配置文件./bin/logstash -f first-pipeline.conf
-t测试配置文件的正确性./bin/logstash -f first-pipeline.conf -t
-lLogstash 内部日志输出目录./bin/logstash -f first-pipeline.conf -l logs/test.log
-w指定 filer 线程数量,默认线程数是 5./bin/logstash -f first-pipeline.conf -w 10





1.2 inputs

1.2.1 File 监听插件

☞ 概述

  文件监听插件主要用来抓取文件的变化信息,将变化信息封装成 event 进程处理或者传递。这里介绍几个 File 插件的参数以及简单示例,详细内容见
☞ 官方文档

☞ 常用参数
参数类型默认值说明
pathArray匹配监听文件【必设项】
excludeArray排除项,排除匹配某个文件
close_olderNumber1 hour设置文件多久秒内没有更新就关掉对文件的监听
delimiterString\n文件内容的行分隔符
start_positionbeginning / endend选择 Logstash 最初开始读取文件的位置,默认从结尾开始

除上述特有参数以外,还有诸多类似于下表的公共参数,所有插件中均可使用公共参数。详见 ☞ 官方文档

参数类型默认值说明
add_fieldHash{}添加自定义字段
codecCodecplain输入输出时对数据编解码
enable_metricBooleantrue为此插件实例禁用或启用度量标准日志记录
idString添加唯一 id
tagsArray添加标签
☞ 示例
input
  file {
    path => ["/var/log/*.log", "/var/log/message"]
    start_position => "beginning"
  }
}

1.2.2 Beats 监听插件

☞ 概述

  Beats插件用于建立监听服务,该输入插件使 Logstash 接收 Filebeat 或者其他 beat 发送的事件。这里介绍几个 Beats 插件的参数以及简单示例,详细内容见
☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostString0.0.0.0监听的 IP 地址
portNumber监听的端口【必设项】
sslBooleanfalse是否启用 ssl
☞ 示例
input {
  beats {
    port => 5044
  }
}

1.2.3 TCP 监听插件

☞ 概述

  TCP 插件通过 TCP Socket 读取事件,像标准输入和文件输入一样,每个事件都假定为一行文本。根据模式,可以接受来自 Client 的连接,也可以连接到 Server。这里介绍几个 TCP 插件的参数以及简单示例,详细内容见
☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostString0.0.0.0监听的 IP 地址
portNumber监听的端口【必设项】
modeStringserver若是 server 则监听 client 连接;若是 client 则连接 server
proxy_protocolBooleanfalse是否启用代理协议,支持 V1
ssl_enableBooleanfalse是否启用 ssl
☞ 示例
input {
  tcp {
    port => 12345
    codec => json
  }
}

1.2.4 Redis 监听插件

☞ 概述

  Redis 插件将从 Redis 实例读取事件;Redis v1.3.1+ 支持 Logstash 使用的 list 命令,而Redis v1.3.8+ 支持 Logstash 使用的 channel 命令。虽然可以使这些低版本 Redis 正常工作,但在较新的稳定版本中将获得最佳性能和稳定性。建议使用 2.6.0+ 版本。 详见 ☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostString127.0.0.1监听的 IP 地址
portNumber6379监听的端口
data_typeStringRedis 工作方式,有三种参数:list/channel/pattern_channel
dbNumber0Redis 数据库号
keyString监听的健【必设项】
passwordString登录密码
sslBooleanfalse是否启用 ssl
timeoutNumber5超时时间,单位为秒
☞ 示例
input {
	redis {
		data_type => "list"
		key => "logstash-test-list"
		host => "127.0.0.1"
		port => 6379
	}
}

1.2.5 Syslog 监听插件

☞ 概述

  Syslog 插件将 syslog 消息作为事件通过网络读取。当然,syslog 是一个非常混乱的名词。默认情况下,此输入仅支持 RFC3164 syslog,如果提供了功能性的 grok_pattern,则可以读取和解析一些非标准的 syslog 格式。详见 ☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostString0.0.0.0监听的 IP 地址
portNumber514监听的端口
proxy_protocolBooleanfalse是否启用代理协议,支持 V1
grok_patternString<%{POSINT:priority}>%{SYSLOGLINE}默认值应读取并正确解析与 RFC3164 完全兼容的 syslog行。
覆盖此值,以使用有效的 grok_pattern 解析非标准行。
syslog_fieldStringmessage编解码器在解析其余数据之前先处理数据。
☞ 示例
input {
  syslog {
    port => 12345
    codec => cef
    syslog_field => "syslog"
    grok_pattern => "<%{POSINT:priority}>%{SYSLOGTIMESTAMP:timestamp} CUSTOM GROK HERE"
  }
}





1.3 outputs

1.3.1 ElasticSearch 输出插件

☞ 概述

  如果打算使用 Kibana Web 界面来分析 Logstash 转换的数据,请使用 Elasticsearch 输出插件将数据导入 Elasticsearch。此输出仅说明 HTTP 协议,因为它是与 Elasticsearch 进行交互的首选协议。在以前的版本中,可以 transport 协议与 Elasticsearch 通信,该协议现在保留用于节点之间的内部集群通信。 Elasticsearch V7.0.0 中已弃用使用传输协议与集群进行通信,而在 V8.0.0中已将其删除。详见 ☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostsURI[//127.0.0.1]Elasticsearch 服务地址,配置多个开启负载均衡
indexStringlogstash-%{+yyyy.MM.dd}存入 Elasticsearch 索引
ilm_enabledtrue/false/autoauto是否启用 ILM 功能
userString登录用户
passwordString登录密码
proxyURI转发 HTTP 代理
templatePath设置模板路径,不设则使用默认模板
☞ 示例
output {
    elasticsearch {
        hosts => ["127.0.0.1:9200"]
        index => "filebeat-%{type}-%{+yyyy.MM.dd}"
        template_overwrite => true
    }
}

1.3.2 Redis 输出插件

☞ 概述

  用于将事件写入 Redis 中进行缓存,通常情况下 Logstash 的 Filter 处理比较吃系统资源,复杂的 Filter 处理会非常耗时,如果事件产生速度比较快,可以使用 Redis 作为 buffer 使用。详见 ☞ 官方文档

☞ 常用参数
参数类型默认值说明
hostString127.0.0.1监听的 IP 地址
portNumber6379监听的端口
data_typelist/channelRedis 工作方式
dbNumber0Redis 数据库号
keyStringkey 名
passwordString登录密码
timeoutNumber5超时时间,单位为秒
☞ 示例
output {
    redis {
        host => "127.0.0.1"
        port => 6379
        data_type => "list"
        key => "logstash-list"
    }
}

1.3.3 File 输出插件

☞ 概述

  File 插件将事件写入磁盘上的文件,默认情况下,以 json 格式每行写入一个事件。可以使用行编解码器自定义行格式。详见 ☞ 官方文档

☞ 常用参数
参数类型默认值说明
pathString要写入文件的路径【必设项】
gzipBooleanfalse在写入磁盘之前,先对输出流进行 gzip 处理。
write_behaviorStringappendappend: 追加写;overwrite: 覆盖写
flush_intervalNumber2日志文件刷新间隔,单位为秒
☞ 示例
output {
    file {
        path => "./test-%{+YYYY-MM-dd}.txt"
    }
}





1.4 filters

1.4.1 grok 正则捕获

☞ 概述

  Grok 是将非结构化日志数据解析为结构化和可查询内容的好方法。该工具非常适合 syslog 日志, apache 和其他 Web 服务器日志,mysql 日志,以及通常用于人类而非计算机使用的任何日志格式。详见 官网文档

☞ 示例
filter {
 grok {
    match => {
      "message" => "Duration: %{NUMBER:duration}"
    }
  }
}

1.4.2 date 时间处理插件

☞ 概述

  date 时间处理插件用于解析字段中的日期,然后使用该日期或时间戳作为事件的 logstash 时间戳。详见 官网文档

☞ 示例
filter {
      date {
        match => [ "logdate", "MMM dd yyyy HH:mm:ss" ]
      }
    }

1.4.3 mutate 数据修改插件

☞ 概述

  mutate 数据修改插件提供了丰富的基础类型数据处理能力。可对字段执行常规变异,即重命名,删除,替换和修改事件中的字段。详见 官网文档

☞ 示例
filter {
    mutate {
        split => ["hostname", "."]
        add_field => { "shortHostname" => "%{hostname[0]}" }
    }

    mutate {
        rename => ["shortHostname", "hostname" ]
    }
}

1.4.4 JSON 格式解码插件

☞ 概述

  这是一个 JSON 解析过滤器。它采用一个包含 JSON 的现有字段,并将其扩展为 Logstash 事件内的实际数据结构。默认情况下,它将解析的 JSON 放在 Logstash 事件的根中,但是可以使用目标配置将此过滤器配置为将 JSON 放入任何任意事件字段中。详见 官网文档

☞ 示例
filter {
  json {
    source => "message"
    target => "doc"
  }
}





1.5 codecs

1.5.1 plain 插件

☞ 概述

  plain 插件用于纯文本,事件之间没有定界。这主要用于已在其传输协议中定义了帧的输入​​和输出。详见 官网文档

☞ 示例
output {
  # 输出到控制台
  stdout { 
    codec => plain
  }
}

1.5.2 rubydebug 插件

☞ 概述

  rubydebug 编解码器将使用 Ruby Amazing Print 库输出 Logstash 事件数据。详见 官网文档

☞ 示例
output {
  # 输出到控制台
  stdout { 
    codec => rubydebug 
  }
}



  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值