![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
日志分析
文章平均质量分 64
被遗忘的区域
这个作者很懒,什么都没留下…
展开
-
nginx日志json化后问题(\x22)解决
问题:1、request_body中含有中文时,nginx日志会转换为十六进制。2、nginx记录问题POST /xxxxx HTTP/1.1|200|4266|0.121|0.121|------------------------------4a74a6c5ef13\x0D\x0AContent-Disposition: form-data; name=\x22city\x22\x0D\x0A\x0D\x0Ananjing\x0D\x0A---------------------------原创 2021-01-08 10:57:15 · 5681 阅读 · 0 评论 -
ELK+redis+filebeat配置nginx日志及geoip
添加的地方log_format json '{ “@timestamp”: “KaTeX parse error: Double superscript at position 22: …so8601", ' '̲"remote_addr": …remote_addr”, ’'“remote_user”: “KaTeX parse error: Double superscript at position 21: …e_user", ' '̲"body_bytes_sen…body_by原创 2021-01-05 16:58:39 · 523 阅读 · 0 评论 -
ELK+redis+filebeat整合及报错解决
重启filebeat后,nginx访问日志会写入到logstash中,但此时logstash写入elasticsearch会报错:failed to parse field [host] of type [text] in document with id 'E0lsjW4BTdp_eLcgfhbu'看elasticsearch日志发现此时host为一个json对象,需要变为字符串才行修改配置,添加过滤器,把host.name赋值为hostvi config/logstash.conffilter原创 2021-01-05 15:39:43 · 1463 阅读 · 0 评论