fluentd配置每天创建es索引

有个需求,每天创建一个索引,然后从日志文件中把一天的数据都存入索引中

要求:

每个索引存储0-24点的日志

如果fluentd宕机,重启后仍然能正常分析日志并按照日期对应的索引存储

配置

 <filter test.elasticsearch.**>
            @type record_transformer
            enable_ruby true
            <record>

                # fluentd 不支持毫秒级的时间戳,因此需要将
                # 毫秒级时间戳变成秒级
                createTimeSecond ${record['createTime']/1000}
            </record>
            # remove_keys message
        </filter>

 <match test.elasticsearch.**>
        @type elasticsearch
        host 127.0.0.1
        port 9200
        logstash_format true
        logstash_prefix logstash
        logstash_dateformat %Y.%m.%d

        time_key_format "%Y-%m-%dT%H:%M:%S.%N%+08:00"

       time_key createTimeSecond

        utc_index:false

        type_name test
        with_transporter_log true
        @log_level info
        ssl_verify false
        emit_error_for_missing_id true
        validate_client_version true
        reconnect_on_error true
        reload_on_failure true
        <buffer>
            @type file
            path /var/log/fluentd-buffers/kubernetes.system.buffer
            flush_mode interval
            retry_type exponential_backoff
            flush_thread_count 2
            flush_interval 10s
            retry_forever true
            retry_max_interval 30
            chunk_limit_size 32M
            queue_limit_length 50
            overflow_action block
        </buffer>
    </match>
标红的三个配置表示

time_key_format 表示time_key按照东八区时间进行转换,

time_key 表示按照要存储的日志中的createTime字段(体现为es中source中的字段)进行赋值

utc_index false 创建每天的索引的时候不按照utc的时区来,按照系统的时区进行创建索引,utc_index默认为true,如果不设置,fluentd创建索引的时候会按照0时区创建,导致每天生成索引中的数据时间间隔错8个小时,也就是每天的日志是从当天早上八点到第二天早上八点

createTimeSecond ${record['createTime']/1000 表示把业务字段中的createTIme 从毫秒转化为秒,并新增字段进行存储

配置对应源码

    if @logstash_format
        if record.has_key?("@timestamp")
          time = Time.parse record["@timestamp"]
        elsif record.has_key?(@time_key)
          time = Time.parse record[@time_key]
          record['@timestamp'] = record[@time_key]
        else
          record.merge!({"@timestamp" => Time.at(time).to_datetime.to_s})
        end
        if @utc_index
          target_index = "#{@logstash_prefix}-#{Time.at(time).getutc.strftime("#{@logstash_dateformat}")}"
        else
          target_index = "#{@logstash_prefix}-#{Time.at(time).strftime("#{@logstash_dateformat}")}"
        end
      else
        target_index = @index_name
      end

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
fluentd配置包括通过设置启动选项或配置文件进行的设置。在启动时,可以设置log_level、suppress_repeated_stacktrace、emit_error_log_interval、suppress_config_dump和without_source等选项。配置文件由多个指令组成,包括source、match、filter、system、label和@include等指令。其中,source指令确定输入源,match指令确定输出目的地,filter指令确定事件处理管道,system指令设置系统级配置,label指令将output和filter分组以进行内部路由,@include指令用于包括其他文件。配置示例中,首先定义了source,表示数据的来源,然后通过filter指令将处理串成管道,形成一个事件流。具体来说,事件流的顺序是Input -> filter 1 -> ... -> filter N -> Output。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Fluentd 配置](https://blog.csdn.net/hxpjava1/article/details/79447630)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Fluentd配置](https://blog.csdn.net/koalazoo/article/details/84770595)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值