ELK(ElasticSearch,Logstash,Kibana)入门详解

麋鹿

ELK由ElasticSearch,Logstash和Kiabana三个开源工具组成。

一,ELK概述

1 ELK 简介

ElasticSearch:是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制, restful风格接口,多数据源,自动搜索负载等。

Logstash: 是一个完全开源的工具,他可以对你的日志进行收集,分析,并将其存储供以后使用。

Kibana:也是一个开源和免费的工具, Kibana可以为Logstash 

 ElasticSearch提供的日志分析友好的Web界面,可以帮助汇总,分析和搜索重要数据日志。

2 ELK 协议栈及体系结构

 

ELK其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash和Kibana。这三款软件都是开源软件,通常是配合使用,而且又先后归于弹性.co公司名下,故被简称为ELK协议栈。

在需要收集日志的所有服务上部署logstash,Logstash收集应用服务器产生的日志,将日志收集在一起交给全文搜索服务ElasticSearch,而Kibana则从ES集群中查询数据生成图表,再返回给客户端浏览器。

二,ElasticSearch

2.1 ElasticSearch概述

ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口.Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎,用于设计云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

Elasticsearch是一个实时分布式搜索和分析引擎与数据库对比来说:。现在大部分数据库在提取可用知识方面显得异常无能的确,它们能够通过时间戳或者精确匹配做过滤查询,但是它们不能够进行全文搜索,不能处理同义词,以及根据相关性给文档打分。而Elasticsearch能根据同一份数据生成分析和聚合的结果,最重要的是,它们在没有大量工作进程(线程)的情况下能做到对数据的实时处理。

2.2 ElasticSearch应用场景

互联网的时代,建立一个网站或应用程序,要添加搜索功能,实现站内搜索和站外搜索,但是想要完成搜索工作并保证运行的功能和性能是非常困难的。我们希望搜索解决方案要运行速度快,我们希望能有一个零配置和一个完全免费的搜索模式,我们希望能够简单地使用 JSON通过HTTP来索引数据,我们希望我们的搜索服务器始终可用,我们希望能够从一台开始并扩展到数百台应用,我们要实时搜索,我们要简单的多租户,我们希望建立一个云的解决方案。因此我们利用Elasticsearch来解决所有这些问题以及可能出现的更多其它问题

2.3 ElasticSearch安装部署

参考文档

ELK官网:https//www.elastic.co/

ELK官网文档:https//www.elastic.co/guide/index.html

ELK中文手册:https//www.elastic.co/guide/cn/elasticsearch/guide/current/index.html

ELK中文社区:https//elasticsearch.cn/

ELK-API:https//www.elastic.co/guide/en/elasticsearch/client/java-api/current/transport-client.html

(1),下载安装包

访问 elasticSearch网官地址https://www.elastic.co/

(2),规划安装目录

(3),上传安装包到指定目录

(4),解压安装包

tar -zxvf elasticsearch-6.1.1.tar.gz -C / export / servers

(5),重命名安装目录

mv elasticsearch-6.1.1 elasticsearch

(6),修改配置文件

进入到 es安装目录下的config文件夹中,修改elasticsearch.yml文件

扩展:

YML文件格式是YAML(YAML Aint Markup Language)编写的文件格式,YAML是一种直观的能够被电脑识别的数据序列化格式,并且容易被人类阅读,容易和脚本语言交互的。

它的基本语法规则如下。

大小写敏感

使用缩进表示层级关系

缩进时不允许使用Tab键,只允许使用空格。

缩进的空格数目不重要,只要相同层级的元素左侧对齐即可

#表示注释,从这个字符一直到行尾,都会被解析器忽略

 

 

修改的主要内容:

#配置ES的集群名称,默认是elasticsearch,ES会自动发现在同一网段下的ES,如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群。

cluster.name:my-es

#节点名称

node.name:node-1  

#设置索引数据的存储路径

path.data:/ export / servers / data  

#设置日志的存储路径

path.logs:/ export / servers / logs  

#设置当前的IP地址,通过指定相同网段的其他节点会加入该集群中

network.host:192.168.80.137

#设置对外服务的HTTP端口

http:运行:9200  

#设置集群中主节点的初始列表,可以通过这些节点来自动发现新加入集群的节点

discovery.zen.ping.unicast.hosts:[“node-1”]

 

- 解决启动时报错

(1),在根用户下启动时报错

 

 

因为安全问题 elasticsearch不让用root用户直接运行,所以要创建新用户。

 

具体操作如下:

useradd es -m

passwd <输入es>

mkdir -p / export / servers / es / data

mkdir -p / export / data / es / logs

chown -R es:es / export / servers / es

chown -R es:es / export / servers / es / data

chown -R es:es / export / servers / es / logs

然后使用 ES用户启动

切换 es用户命令:su es

启动集群命令: bin / elasticsearch

 

(2),在ES用户下启动时报错

 

原因: Centos6不支持SecComp,而ES默认bootstrap.system_call_filter为真进行检测,所以导致检测失败,失败后直接导致ES不能启动。

详见 https //github.com/elastic/elasticsearch/issues/22899

解决方案:

elasticsearch.yml中新增配置bootstrap.system_call_filter,设为假。

bootstrap.system_call_filter:false

(3),在ES用户下启动继续报错

 

 

第一个问题的原因:

原因:无法创建本地文件问题,用户最大可创建文件数太小

解决方案:切换到root用户,编辑limits.conf配置文件,添加类似如下内容:

vi /etc/security/limits.conf

添加如下内容:注意*不要去掉了

* soft nofile 65536

* hard nofile 131072

备注:*代表Linux所有用户名称(比如hadoop)

需要保存,退出,重新登录才可生效。

 

第二个错误的原因:

原因:无法创建本地线程问题,用户最大可创建线程数太小

解决方案:切换到root用户,进入limits.d目录下,修改90-nproc.conf配置文件。

vi /etc/security/limits.d/90-nproc.conf

找到如下内容:

* soft nproc 1024

#修改为

* soft nproc 4096

 

第三个错误的原因:

原因:最大虚拟内存太小

每次启动机器都手动执行下。

根用户执行命令:

执行命令:sysctl -w vm.max_map_count = 262144

查看修改结果命令:sysctl -a | grep vm.max_map_count看是否已经修改

 

永久性修改策略:

echo“vm.max_map_count = 262144”>> /etc/sysctl.conf

2.4 ElasticSearch基础概念

  Elasticsearch有几个核心概念。从一开始理解这些概念会对整个学习过程有莫大的帮助。

接近实时( NRT) Elasticsearch是一个接近实时的搜索平台。这意味着,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒)。

集群( cluster)  一个集群就是由一个或多个节点组织在一起,它们共同持有你整个的数据,并一起提供索引和搜索功能。一个集群由一个唯一的名字标识,这个名字默认就是“elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入这个集群。在产品环境中显式地设定,但是使用默认值来进行测试/开发也是不错的。   

节点(节点)  一个节点是你集群中的一个服务器,作为集群的一部分,它存储你的数据,参与集群的索引和搜索功能。和集群类似,一个节点也是由一个名字标识的,默认情况下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启 的时候赋予节点。这个名字对于管理工作来说挺重要,因为在这个管理过程中,你会去确定网络中的哪些Elasticsearch集群中的哪些节点。        一个节点可以通过配置集群名称的来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了,并假定它们能够相互发现彼此,它们将会自动地形成并加入到“elasticsearch”的集群中。    

   在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运行任何Elasticsearch节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的集群。    

索引(索引)      一个索引就是一个拥有几分相似特征。比如说,你可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的索引。一个索引由一个名字来标识(必须全部是小写字母的),并且当我们要对对应于这个,搜索,更新和删除的时候,都要使用到这个名字。在一个集群中,如果你想,可以定义任意多的索引。   

类型( type)在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定。 ,会为具有一组共同字段的。比如说,假设我们运你一个博客平台个人文库并且将你所有的数据存储到一个索引中。在这个索引中,你可以为用户数据定义一个类型,为博客数据定义另一个类型,当然,也可以为评论数据定义另一个类型。     

文档 文件)       一个文档是一个可被索引的。比如,你可以拥有某一个客户的文档,某一个产品的一个文档,当然,也可以拥有某个订单的一个文档。文档以JSON(Java脚本对象符号)格式来表示,而JSON是一个到处存在的互联网数据交互。         在一个索引/类型里面,只要你想,你可以存储任意多的文档。注意,尽管一个文档,物理上存在于一个索引之中,文档必须被索引/赋予一个索引的类型。   

分片和复制(碎片&副本)  一个索引可以存储超出单个结点硬件限制的大量数据比如,一个具有。10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的;或者单个节点处理搜索请求,响应太慢。      为了解决这个问题,Elasticsearch提供了将索引划分成多份,这些份就叫做分片。当你创建一个索引的时候,你可以指定你想要的分片。每个分片本身也是一个功能完善“索引”,这个“索引”可以被放置到集群中的任何   

分片之所以重要,主要有两方面的原因:       

   - 允许你水平分割/扩展你的内容容量   

   - 允许你在分片(潜在地,位于多个节点上)之上进行分布式的,并行的操作,进而提高性能/有效产出   

至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这都是透明的。  

默认一个索引有 5个分片,每个分片都1个副本。

访问 ES

Google Chrome浏览器中,访问以下地址:http:// node1:9200?pretty

注意:在任意的查询字符串中增加相当参数,会让Elasticsearch美化输出(漂亮地打印)JSON响应以便更加容易阅读。

 

三,Kibana

3.1 Kibana概述

Kibana是一个开源的分析和可视化平台,旨在与Elasticsearch合作.Kibana提供搜索,查看和存储在Elasticsearch索引中的数据进行交互的功能。开发者或运维人员可以轻松地执行高级数据分析,并在各种图表,表格和地图中可视化数据。

3.2 kibana安装部署

1),下载安装包

访问 elasticSearch网官地址https://www.elastic.co/

(2),规划安装目录

(3),上传安装包到指定目录

(4),解压安装包

tar -zxvf kibana-6.1.1-linux-x86_64.tar.gz -C / export / servers

(5),重命名安装目录

mv kibana-6.1.1-linux-x86_64 kibana

(6),修改配置文件

进入到 kibana安装目录下的配置文件夹中,修改kibana.yml文件

server.host:“node1”

elasticsearch.url:“http:// node-1:9200”


(7),授权

   chown -R es:es / export / servers / kibana

 

(8),启动kibana

 斌/ kibana

后台运行:

nohup / export / servers / kibana / bin / kibana> / dev / null 2>&1&

ps -ef | grep kibana查看kibana进程

 

(9),访问kibana界面

HTTP://节点-1:5601

四,Logstash

4.1 logstash概述

Logstash是一个开源的数据收集引擎,它具有备实时数据传输能力。它可以统一过滤来自不同源的数据,并按照开发者的制定的规范输出到目的地。

顾名思义, Logstash收集数据对象就是日志文件。由于日志文件来源多(如:系统日志,服务器日志等),且内容杂乱,不便于人类进行观察。因此,我们可以使用Logstash对日志文件进行收集和统一过滤,变成可读性高的内容,方便开发者或运维人员观察,从而有效的分析系统/项目运行的性能,做好监控和预警的准备工作等。

 

4.2 logstash组成结构

Logstash通过管道进行运作,管道有两个必要的元素,输入(输入)和输出(输出),还有一个可选的元素 - 过滤器(filter)。输入插件从数据源获取数据,过滤器插件根据。用户指定的数据格式修改数据,输出插件则将数据写入到目的地如下图:

 

 

4.3 logstash安装部署

1),下载安装包

访问 elasticSearch网官地址https://www.elastic.co/

(2),规划安装目录

(3),上传安装包到指定目录

(4),解压安装包

tar -zxvf logstash-6.1.1.tar.gz -C / export / servers

(5),重命名安装目录

mv logstash-6.1.1 logstash

4.4 logstash入门案例

Logstash提供了一个shell脚本叫logstash方便快速运行,-e意指执行

箱/ logstash -e '输入{标准输入{}} {输出的stdout {}}' 


I love you(
输入经过Logstash管道(过滤)变成:

 

2018-07-02T11:40:31.225Z node-1I love you(输出)。

  • 6
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值