logstash 输出 文件 reids

3 篇文章 1 订阅
2 篇文章 0 订阅

output插件是经过了input,然后过滤结构化数据之后,接下来我们需要借助output传到我们想传到的地方.output相当于一个输出管道。

一、将采集数据标准输出到控制台
配置示例:

output {
    stdout {
        codec => rubydebug
    }
}

Codec 来自 Coder/decoder

两个单词的首字母缩写,Logstash 不只是一个input | filter | output 的数据流,

而是一个input | decode | filter | encode | output 的数据流,codec 就是用来decode、encode 事件的。

简单说,就是在logstash读入的时候,通过codec编码解析日志为相应格式,从logstash输出的时候,通过codec解码成相应格式。

演示:

input {stdin{}}
output {
    stdout {
        codec => rubydebug
    }
}


启动:bin/logstash -f /usr/local/elk/logstash-5.5.2/conf/template/stdout.conf

展示:
在这里插入图片描述

二、将采集数据保存到file文件中
通过日志收集系统将分散在数百台服务器上的数据集中存储在某中心服务器上,这是运维最原始的需求;

需求:将数据采集到logstash的日志文件中,区分业务和采集日期(哪天采集的)

input {stdin{}}
output {
    file {
        path => "/home/angel/logstash-5.5.2/logs/stdout/mobile-collection/%{+YYYY-MM-dd}-%{host}.txt"
        codec => line {
            format => "%{message}"
        }
        gzip => true
    }
}


启动:

bin/logstash -f /home/angel/servers/logstash-5.5.2/logstash_conf/stdout_file.conf

2.3.3:将采集数据保存到elasticsearch
Logstash可以直接将采集到的信息下沉到elasticsearch中

input {stdin{}}
output {
    elasticsearch {
        hosts => ["hadoop000:9200"]
        index => "logstash-%{+YYYY.MM.dd}"    #这个index是保存到elasticsearch上的索引名称,如何命名特别重要,因为我们很可能后续根据某些需求做查询,所以最好带时间,因为我们在中间加上type,就代表不同的业务,这样我们在查询当天数据的时候,就可以根据类型+时间做范围查询
        flush_size => 20000    #表示logstash的包数量达到20000个才批量提交到es.默认是500
        idle_flush_time => 10   #多长时间发送一次数据,flush_size和idle_flush_time以定时定量的方式发送,按照批次发送,可以减少logstash的网络IO请求
        user => elastic
        password => changeme
    }
}


启动:

[root@localhost ~]# /export/www/admin-analysis.geenmay.cn/public/logstash7/bin/logstash -f /export/www/admin-analysis.geenmay.cn/public/logstash7/config/logstashka-fka.conf 

向控制台中输入2条数据:

192.168.77.1 - - [10/Apr/2018:00:44:11 +0800] “POST /api/metrics/vis/data HTTP/1.1” 200 505 “http://hadoop01/app/kibana” “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36”

192.168.77.6 - - [10/Apr/2018:00:49:11 +0800] “POST /api/metrics/vis/data HTTP/1.1” 200 653 “http://hadoop01/app/kibana” “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36”

三、将采集的数据保存到redis
配置:

input { stdin {} }
output {
        redis {
                host => "hadoop000"
                data_type => "list"  
                db => 2
                port => "6379"
                key => "logstash-chan-%{+yyyy.MM.dd}"
        }
}

数据落地到redis的优化:

• 批处理类(仅用于data_type为list)

  1. batch:设为true,通过发送一条rpush命令,存储一批的数据 \
  2. 默认为false:1条rpush命令,存储1条数据 \
  3. 设为true之后,1条rpush会发送batch_events条数据
  4. batch_events:一次rpush多少条
  5. 默认50条
  6. batch_timeout:一次rpush最多消耗多少s
  7. 默认5s

• 拥塞保护(仅用于data_type为list)

  • congestion_interval:每隔多长时间进行一次拥塞检查
  • 默认1s
  • 设为0,表示对每rpush一个,都进行检测
  • congestion_threshold:list中最多可以存在多少个item数据
  • 默认是0:表示禁用拥塞检测
  • 当list中的数据量达到congestion_threshold,会阻塞直到有其他消费者消费list中的数据
  • 作用:防止OOM


启动redis 将数据打入logstash控制台:

192.168.77.1 - - [10/Apr/2018:00:44:11 +0800] “POST /api/metrics/vis/data HTTP/1.1” 200 505 “http://hadoop01/app/kibana” “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36”
192.168.77.2 - - [10/Apr/2018:00:45:11 +0800] “POST /api/metrics/vis/data HTTP/1.1” 200 460 “http://hadoop01/app/kibana” “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36”
192.168.77.3 - - [10/Apr/2018:00:46:11 +0800] “POST /api/metrics/vis/data HTTP/1.1” 200 510 “http://hadoop01/app/kibana” “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36”

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 您好!在 Logstash 中使用 Ruby 代码访问 Redis 数据库并实现持久化功能,您可以这样写: ``` filter { ruby { code => " require 'redis' redis = Redis.new # 将数据存入 Redis event.set('my_field', 'my_value') redis.set('my_key', event.get('my_field')) # 从 Redis 读取数据 value = redis.get('my_key') event.set('my_field_from_redis', value) " } } ``` 希望这些代码对您有所帮助! ### 回答2: 要使用Logstash、Ruby和Redis进行持久化的代码写法,可以按照以下步骤进行: 首先,确保已经安装好Logstash、Ruby和Redis的相关组件和依赖。 1. 导入所需的Ruby库文件: ``` require 'redis' ``` 2. 创建Redis连接,并准备持久化数据: ``` redis = Redis.new(host: 'localhost', port: 6379) ``` 3. 在Logstash的配置文件中使用Ruby filter插件来处理数据并进行持久化。例如: ``` input { # 设置Logstash输入源,如kafka、file等 } filter { ruby { code => " # 在这里添加数据处理逻辑 # 在处理过程中,将数据存储到Redis中 redis.rpush('mylist', event.get('field_name')) " } } output { # 设置Logstash输出目标,如Elasticsearch、stdout等 } ``` 在Ruby filter的代码块中,可以根据需要进行数据处理,并通过redis.rpush方法将数据存储到Redis的列表中(示例中使用的列表名为'mylist')。 4. 运行Logstash并加载配置文件: ``` logstash -f your_config_file.conf ``` 这样,当Logstash获取到输入数据后,Ruby filter插件将按照配置的数据处理逻辑来处理数据,并将处理后的数据存储到Redis中。 需要注意的是,上述代码只是简单示例,实际应用中可能需要根据具体需求进行适当的修改和扩展。 ### 回答3: 在使用Logstash的Ruby插件和Redis进行持久化时,可以通过以下步骤来编写代码: 1. 首先,确保已经安装并配置好了Logstash、Ruby和Redis环境。 2. 创建一个新的Logstash配置文件,例如`logstash.conf`,并在其中定义输入、过滤和输出插件。 3. 在输出插件部分,选择Redis作为输出目标。添加以下配置代码: ``` output { redis { host => "localhost" # Redis服务器地址 data_type => "list" # 存储数据类型 key => "my_key" # 存储数据的键名 codec => "json" # 数据编码格式 } } ``` 根据自己的实际需求修改相应的参数值,确保正确与Redis建立连接。 4. 在Logstash的安装目录下创建一个新的Ruby脚本文件,例如`persist.rb`。 5. 在该脚本中引入Redis和Logstash的Ruby库: ```ruby require 'redis' require 'logstash/config/mixin' class Persist include LogStash::Config::Mixin def initialize config_init('logstash.conf') @redis = Redis.new(host: 'localhost') end end persist = Persist.new ``` 6. 在脚本的`initialize`方法中,首先调用`config_init`方法来读取`logstash.conf`配置文件,以便获取Redis服务器地址等信息。然后,创建一个Redis实例。 7. 可以添加一些自定义的方法来执行持久化操作。例如,可以使用Logstash的`filter_matched`方法来获得经过过滤的事件数据,并使用Redis的`rpush`方法将数据存储到指定的键名: ```ruby def persist_event(event) filter_matched(event) @redis.rpush('my_key', event.to_json) end ``` 按照自己的需求修改键名和数据格式,确保正确存储到Redis。 8. 最后,在Logstash的配置文件中使用Ruby插件的执行器来调用上述的持久化方法。在`output`插件中添加以下代码: ``` ruby { code => 'persist.persist_event(event)' } ``` 这样,当有新的事件数据经过过滤后,会自动调用`persist_event`方法将数据持久化到Redis中。 以上是一个简单的示例,根据实际需求可以进行更多的定制和优化。在实际应用中,还需要注意异常处理和数据处理的效率等问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

伟伟哦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值