filebeat
Angus博客
知足长乐,助人为乐,自得其乐。
展开
-
EFLK海量日志实时分析检索系统应用实践-11.启动filebeat,分析,输入到kafka,redis和logstash
启动 启动日志 用157的服务器登陆,输入错误密码。156会产生一条日志 日志是json格式 包含了 时间 元数据 错误信息等等 登陆Kafka服务器,查看topic 列表 发现创建了 oslogs 消费Kafka数据 会发现数据很多,而我们只需要message数据 处理方式,修改filebeat 配置文件 放开processors drop_fields 就是删除指定字段,这样传递给Kafka 的时候 数据就只有自己需要的字段 重启原创 2021-09-07 21:33:27 · 257 阅读 · 0 评论 -
EFLK海量日志实时分析检索系统应用实践-10.filebeat基础介绍以及运行架构分析
探测器Prospector和收集器Harvester,处理程序Spooler 组成 内容可以写入Kafka ,Redis,Logstash等 安装后的路径 配置文件为filebeat.yml 打开 由于内容多,过滤#号后打开 类型是log, enable ture 是否启动 paths : 监控log路径 fields:增加自定义字段 用来区分 filebeat,config.modeles:模块配置 name 标识 setup.kib...原创 2021-09-07 21:29:07 · 180 阅读 · 0 评论