ELKstack简介及其基本配置

背景

操作系统,应用服务和业务逻辑,都在不停的产生日志数据。过去,日志数据基本都存在单机磁盘上,只能用来做临时的事后分析和审计;有 Hadoop 以后,大家渐渐习惯收集日志到 HDFS 中,然后每天运行 MapReduce 任务做统计报表;但是面对诸如“新上线的版本过去几分钟在各地反馈如何”,“昨天 23:40 左右这个投诉用户有没有异常”这种即时的开放性问题,传统的日志处理方案显得非常的笨拙和低效,因为解答没有唯一套路,答案需要尝试下钻挖掘才能得出。复杂多变的实时数据分析需求,需要的是灵活快捷的响应处理。

     ELKstack 具有如下几个优点:处理方式灵活。Elasticsearch 是实时全文索引,不需要像 storm 那样预先编程才能使用;配置简易上手。Elasticsearch 全部采用 JSON 接口,Logstash 是 Ruby DSL 设计,都是目前业界最通用的配置语法设计;检索性能高效。虽然每次查询都是实时计算,但是优秀的设计和实现基本可以达到百亿级数据查询的秒级响应;集群线性扩展。不管是 Elasticsearch 集群还是 Logstash 集群都是可以线性扩展的;前端操作炫丽。Kibana 界面上,只需要点击鼠标,就可以完成搜索、聚合功能,生成炫丽的仪表板。

Logstash 会给事件添加一些额外信息。最重要的就是 @timestamp,用来标记事件的发生时间。因为这个字段涉及到Logstash 的内部流转,所以必须是一个 joda 对象,如果你尝试自己给一个字符串字段重命名为 @timestamp 的话,Logstash会直接报错。所以,请使用 filters/date 插件 来管理这个特殊字段。此外,大多数时候,还可以见到另外几个:1. host 标记事件发生在哪里。2. type 标记事件的唯一类型。3. tags 标记事件的某方面属性。这是一个数组,一个事件可以有多个标签。你可以随意给事件添加字段或者从事件里删除字段。事实上事件就是一个 Ruby 对象,或者更简单的理解为就是一个哈希也行。小贴士:每个 logstash 过滤插件,都会有四个方法叫 add_tag , remove_tag , add_field 和 remove_field 。它们在插件过滤匹配成功时生效。

配置语法

Logstash 社区通常习惯用 shipper,broker 和 indexer 来描述数据流中不同进程各自的角色。不过我见过很多运用场景里都没有用 logstash 作为 shipper,或者说没有用 elasticsearch 作为数据存储也就是说也没有indexer。所以,我们其实不需要这些概念。只需要学好怎么使用和配置 logstash 进程,然后把它运用到你的日志管理架构中最合适它的位置就够了。

Logstash 设计了自己的 DSL —— 有点像 Puppet 的 DSL,或许因为都是用 Ruby 语言写的吧 —— 包括有区域,注释,数据类型(布尔值,字符串,数值,数组,哈希),条件判断,字段引用等。Logstash 用 {} 来定义区域。区域内可以包括插件区域定义,你可以在一个区域内定义多个插件。

区段(section):Logstash 用 {} 来定义区域。区域内可以包括插件区域定义,你可以在一个区域内定义多个插件。插件区域内则可以定义键值对设置。

示例如下:

input {

stdin {}

syslog {}

}

支持少量数据类型:bool:debug => true,string:host => "hostname",number:port => 514,array:match => ["datetime", "UNIX", "ISO8601"],hash:options => {key1 => "value1",key2 => "value2"}.


字段引用(field reference)

字段是 Logstash::Event 对象的属性。我们之前提过事件就像一个哈希一样,所以你可以想象字段就像一个键值对。小贴士:我们叫它字段,因为 Elasticsearch 里是这么叫的。如果你想在 Logstash 配置中使用字段的值,只需要把字段的名字写在中括号 [] 里就行了,这就叫字段引用。对于 嵌套字段(也就是多维哈希表,或者叫哈希的哈希),每层的字段名都写在 [] 里就可以了。比如,你可以从 geoip 里这样获取 longitude 值(是的,这是个笨办法,实际上有单独的字段专门存这个数据的):[geoip][location][0]小贴士:logstash 的数组也支持倒序下标,即 [geoip][location][-1] 可以获取数组最后一个元素的值。Logstash 还支持变量内插,在字符串里使用字段引用的方法是这样:"the longitude is %{[geoip][location][0]}"。

条件判断(condition)

Logstash从 1.3.0 版开始支持条件判断和表达式。== (等于), != (不等于), < (小于), > (大于), <= (小于等于), >= (大于等于)=~ (匹配正则), !~ (不匹配正则)in (包含), not in (不包含)and (与), or (或), nand(非与), xor(非或)() (复合表达式), !() (对复合表达式结果取反)。

通常来说,你都会在表达式里用到字段引用。为了尽量展示全面各种表达式,下面虚拟一个示例:

if "_grokparsefailure" not in [tags] {

} else if [status] !~ /^2\d\d/ or ( [url] == "/noc.gif" nand [geoip][city] != "beijing" ) {

} else {

}

命令行参数

Logstash 提供了一个 shell 脚本叫 logstash 方便快速运行。它支持一下参数:

--config 或 -f意即文件。真实运用中,我们会写很长的配置,甚至可能超过 shell 所能支持的 1024 个字符长度。所以我们必把配置固化到文件里,然后通过 bin/logstash -f agent.conf 这样的形式来运行。此外,logstash 还提供一个方便我们规划和书写配置的小功能。你可以直接用 bin/logstash -f /etc/logstash.d/ 来运行。logstash 会自动读取 /etc/logstash.d/ 目录下所有 *.conf 的文本文件,然后在自己内存里拼接成一个完整的大配置文件,再去执行。注意:logstash 列出目录下所有文件时,是字母排序的。而 logstash 配置段的 filter 和 output 都是顺序执行,所以顺序非常重要。采用多文件管理的用户,推荐采用数字编号方式命名配置文件,同时在配置中,严谨采用 if 判断限定不同日志的动作。

--configtest 或 -t意即测试。用来测试 Logstash 读取到的配置文件语法是否能正常解析。Logstash 配置语法是用 grammar.treetop 定义的。尤其是使用了上一条提到的读取目录方式的用户,尤其要提前测试。

--log 或 -l意即日志。Logstash 默认输出日志到标准错误。生产环境下你可以通过 bin/logstash -l logs/logstash.log 命令来统一存储日志。

--filterworkers 或 -w,意即工作线程。Logstash 会运行多个线程。你可以用 bin/logstash -w 5 这样的方式强制 Logstash 为过滤插件运行 5 个线程。注意:Logstash目前还不支持输入插件的多线程。而输出插件的多线程需要在配置内部设置,这个命令行参数只是用来设置过滤插件的!提示:Logstash 目前不支持对过滤器线程的监测管理。如果 filterworker 挂掉,Logstash 会处于一个无 filter 的僵死状态。这种情况在使用 filter/ruby 自己写代码时非常需要注意,很容易碰上 NoMethodError: undefined method '*' fornil:NilClass 错误。需要妥善处理,提前判断。

--verbose输出一定的调试日志。小贴士:如果你使用的 Logstash 版本低于 1.3.0,你只能用 bin/logstash -v 来代替。--debug输出更多的调试日志。小贴士:如果你使用的 Logstash 版本低于 1.3.0,你只能用 bin/logstash -vv 来代替。


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将 RabbitMQ 集成到 ELK Stack 中,需要进行以下配置: 1. 安装 RabbitMQ 首先,需要在系统中安装 RabbitMQ。在 Ubuntu 系统中,可以使用以下命令安装 RabbitMQ: ``` sudo apt-get install rabbitmq-server ``` 2. 安装 Logstash 插件 接下来,需要在 Logstash 中安装 RabbitMQ 插件。可以使用以下命令安装 RabbitMQ 插件: ``` sudo bin/logstash-plugin install logstash-input-rabbitmq ``` 3. 配置 RabbitMQ 输入 然后,需要配置 Logstash 中的 RabbitMQ 输入。打开 Logstash 配置文件(通常位于 `/etc/logstash/conf.d` 目录下),并添加以下内容: ``` input { rabbitmq { host => "localhost" queue => "my_queue" exchange => "my_exchange" user => "my_user" password => "my_password" codec => "json" durable => true exclusive => false auto_delete => false } } ``` 在以上配置中,需要将 `my_queue` 和 `my_exchange` 替换为实际的队列和交换机名称。还需要提供 RabbitMQ 用户名和密码。 4. 配置 Elasticsearch 输出 最后,需要将 Logstash 中的数据发送到 Elasticsearch 中进行索引。可以在 Logstash 配置文件中添加以下内容: ``` output { elasticsearch { hosts => ["localhost:9200"] index => "my_index" } } ``` 在以上配置中,需要将 `my_index` 替换为实际的索引名称。还可以配置其他选项,例如 Elasticsearch 主机地址和端口号。 完成以上配置后,启动 Logstash,它将开始从 RabbitMQ 中读取数据,并将其发送到 Elasticsearch 进行索引。请注意,这只是一个基本配置示例,你可以根据自己的需求进行修改和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值