年后复工了,工作不忙要想学点新东西,为什么从ELK开始呢?因为最近几次面试,面试官都提到了我们的日志是怎么管理的,那得了解了解吧。以下都是我从百度和谷歌上面查阅资料搞出来的,有啥问题,大家可以一起沟通沟通。今天先出windows系统搭建ELK的过程,毕竟这个应该简单些吧。
ELK作为日志分析系统,他的优点是什么?
就我而言,以前解决生产问题的方式就是从服务器上把日志文件拿下来,用ue打开去分析,如果有10台服务器的话,那我就靠运气了,也许第一台就拿到想要的,如果运气不好的话,那我可能要把10台服务器的日志都拿下来才能分析到问题。而ELK的出现恰巧解决了这个问题。
ELK拆分开就是Elasticsearch、Logstash、Kibana三大开源框架首字母大写简称,这三个都属于elastic下的产品,可以通过访问https://www.elastic.co/cn/去了解一下。
Logstash:用来收集,过滤日志,并将日志信息发送给ES。从一个博客中(我翻了半天的浏览记录也没有找到那个网站)了解到由于Logstash在服务器上安装很费内存,所以可以使用filebeat用来收集日志,filebeat是一个轻量型日志采集器,相比logstash而言,要好用一些(但是本人目前还没有涉猎到这一块,所以今天就先不多说了)。
Elasticsearch:官方说是它一个基于Lucene的搜索服务器,它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用ElasticSearch的水平伸缩性,能使数据在生产环境变得更有价值。所以在ELK中,日志量那么大的情况下,想要很快很准确的搜索到日志信息用ElasticSearch当然是最好的选择了。
Kibana:它为 Elasticsearch 提供了分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,