kabina启动配置

启动 kibana
# /usr/local/kibana-4.1.1-linux-x64/bin/kibana

zjtest7-redis:/usr/local/kibana-4.5.3-linux-x64/bin# ./kibana 
  log   [10:50:33.506] [info][optimize] Optimizing and caching bundles for kibana and statusPage. This may take a few 

minutes
  log   [10:51:56.584] [info][optimize] Optimization of bundles for kibana and statusPage complete in 83.07 seconds
  log   [10:51:56.697] [info][status][plugin:kibana] Status changed from uninitialized to green - Ready
  log   [10:51:56.750] [info][status][plugin:elasticsearch] Status changed from uninitialized to yellow - Waiting for 

Elasticsearch
  log   [10:51:56.819] [info][status][plugin:kbn_vislib_vis_types] Status changed from uninitialized to green - Ready
  log   [10:51:56.834] [info][status][plugin:markdown_vis] Status changed from uninitialized to green - Ready
  log   [10:51:56.856] [info][status][plugin:metric_vis] Status changed from uninitialized to green - Ready
  log   [10:51:56.873] [info][status][plugin:spyModes] Status changed from uninitialized to green - Ready
  log   [10:51:56.879] [info][status][plugin:statusPage] Status changed from uninitialized to green - Ready
  log   [10:51:56.886] [info][status][plugin:table_vis] Status changed from uninitialized to green - Ready
  log   [10:51:56.918] [info][listening] Server running at http://192.168.32.80:5601
  log   [10:52:01.876] [info][status][plugin:elasticsearch] Status changed from yellow to yellow - No existing Kibana 

index found
  log   [10:52:04.589] [info][status][plugin:elasticsearch] Status changed from yellow to green - Kibana index ready



Configure an index pattern  配置一个Index 模式



In order to use Kibana you must configure at least one index pattern. Index patterns are used to identify the 

Elasticsearch index to run search and analytics against. They are also used to configure fields. 

为了使用kibana 你必须配置至少一个索引模式,索引模式是用于确认Elasticsearch index 

来运行搜索和分析,也可以用于配置字段

 Index contains time-based events   索引基于时间的事件

Use event times to create index names [DEPRECATED]  使用事件时间来创建索引名字【过时】


Index name or pattern  索引名字或者模式

模式允许你定义动态的索引名字 使用*作为通配符,例子:logstash-*

选择:
Time field name


点击“ Discover ”,可以搜索和浏览 Elasticsearch 中的数据,默认搜索的是最近 15分钟的数据。可以自定义选择时间。
到此,说明你的 ELK 平台安装部署完成。








转载于:https://www.cnblogs.com/zhaoyangjian724/p/6199268.html

Kafka、Elasticsearch 和 Kabina 这三个技术在数据流处理、存储和可视化方面有很好的集成应用。这里我们简要地介绍一下这三个组件,并描述如何将告警信息从 Kafka 接收并推送至 Elasticsearch,最后通过 Kabina 来展现。 ### Kafka Kafka 是一种高吞吐量的消息队列系统,常用于构建实时的数据管道和日志处理系统。它能够支持大量的生产者和消费者同时访问,提供了一个中心化的消息发布和订阅机制。 ### Elasticsearch Elasticsearch 是基于 Lucene 的搜索及分析引擎,广泛应用于日志分析、实时检索等领域。它支持全文搜索、结构化查询和复杂的数据分析功能。当数据从 Kafka 推送过来时,可以利用 Elasticsearch 进行索引、存储和快速搜索。 ### Kabina Kabina 可能是指的一个特定工具或服务名称,在这个上下文中,假设是指一个用于可视化数据流或指标监控系统的工具。它可以将来自 Elasticsearch 或其他数据源的信息转换为易于理解的图形界面,便于用户快速获取关键业务指标和警报状态。 #### 如何将告警信息从 Kafka 接收到 Elasticsearch: 1. **创建 Kafka 主题**:首先在 Kafka 中创建一个主题(topic),专门用于接收告警信息。 2. **编写生产者**:使用 Kafka 生产者的 API 将告警信息发送到指定的主题。每条信息可以包含元数据、触发条件等关键字段。 3. **设置消费者**:配置 Kafka 消费者连接到主题,并监听新到达的消息。消费端可以选择批量处理或实时处理,依据应用需求设计。 4. **消息解析与处理**:在 Kafka 消息处理程序中,解析消息内容,如 JSON 格式的告警数据,然后将其转化为合适的数据结构。 5. **将数据插入 Elasticsearch**:使用 Elasticsearch 客户端 API 将消息内容作为文档插入到指定的索引和分片中。可能需要定义合适的映射(mapping)以适应告警信息的结构。 6. **建立索引和查询规则**:根据业务需求,在 Elasticsearch 中建立相应的索引,并设置查询规则以便于后续检索和分析。 7. **部署可视化工具**:使用 Kabina 或类似工具接入 Elasticsearch 数据源,设置图表、仪表盘和实时监控视图,以直观显示告警趋势、频率等关键指标。 ####
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值