在微服务化盛行的今天,日志的收集、分析越来越重要。ASP.NET Core 提供了一个统一的,轻量级的Logining系统,并可以很方便的与第三方日志框架集成。我们也可以根据不同的场景进行扩展,因为ASP.NET Core Logining系统设计的非常灵活性,我们可以很容易的添加自己的LogProvider。本文就来介绍一下如何借助于 ELKstack 来实现在分布式环境下的集中式日志处理。
使用Docker部署Elasticsearch和Kibana
ELKstack是Elasticsearch、Logstash、Kibana三个开源软件的组合,是当今最为流行的统一日志分析平台。对于它们的介绍,网上非常之多,这里就不再多说。
在本文中只使用了Elasticsearch
和Kibana
,前者是分布式搜索系统,后者是一个可视化平台,使用docker来部署非常简单:
部署Elasticsearch
如下,绑定端口9200
,并将容器命名为elasticsearch
:
docker run --name=elasticsearch -d -p 9200:9200 -e "http.host=0.0.0.0" -e "transport.host=127.0.0.1" docker.elastic.co/elasticsearch/elasticsearch:6.2.2
然后在浏览器中打开 http://localhost:9200/,输出如下:
{
"name": "qFQvLqr",
"cluster_name": "docker-cluster",
"cluster_uuid": "bdc5YhZlQHu0mCN7acNKBw", "version": { "number": "6.2.2", "build_hash": "10b1edd", "build_date": "2018-02-16T21:01:30.685723Z", "build_snapshot": false, "lucene_version": "7.2.1", "minimum_wire_compatibility_version": "5.6.0", "minimum_index_compatibility_version": "5.0.0" }, "tagline": "You Know, for Search" }
部署Kibana
Kibana的部署依赖于Elasticsearch:
docker run --name=kibana --link=elasticsearch -d -p 5601:5601 docker.elastic.co/kibana/kibana:6.2.2
主要注意的是,在这里使用了--link=elasticsearch
来链接到elasticsearch容器,如果要使用外部的elasticsearch服务,可以使用-e "elasticsearch.url=http://changeme:9200"
来指定。
然后在浏览器中打开 http://localhost:5601/:
如上,部署成功,不过还没有任何数据。
使用docker-compose部署
当需要部署多个相关的服务时,更加推荐使用docker-compose来部署:
首先,我们创建一个docker-compose.yml
文件:
version: '3'
services:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:${TAG} container_name: elasticsearch environment: - http.host=0.0.0.0 - transport.host=127.0.0.1 - ELASTICSEARCH_PASSWORD=${ELASTIC_PASSWORD} ports: - 9200:9200 networks: - stack kibana: image: docker.elastic.co/kibana/kibana:${TAG} container_name: kibana environment: - ELASTICSEARCH_USERNAME=kibana - ELASTICSEARCH_PASSWORD=${ELASTIC_PASSWORD} ports: - 5601:5601 networks: - stack depends_on: - elasticsearch networks: stack: driver: bridge
如上,我们定义了TAG
和ELASTIC_PASSWORD
两个环境变量,方便在部署时候灵活的指定版本号和密码。
为方便测试部署,我们可以定义一个默认的环境变量文件.env
:
TAG=6.2.2
ELASTIC_PASSWORD=Qwer1234
然后,直接运行如下命令即可:
docker-compose up
接下来,将日志写入到Elasticsearch。
记录日志到Elasticsearch
我们创建一个 ASP.NET Core WebApi 项目,添加如下Package:
dotnet add package Zero.Logging.Elasticsearch --version 1.0.0-alpha3-20180228
添加ElasticsearchProvider
然后在Program.cs
文件中使用AddElasticsearch
扩展方法为日志系统添加ElasticsearchProvider
:
public static IWebHost BuildWebHost(string[] args) => WebHost.CreateDefaultBuilder(args) .ConfigureLogging((hostingContext, logging) => { logging.AddElasticsearch(); }) .UseStartup<Startup>() .Build();
记录日志
对于日志的记录则不需要任何的修改:
public class ValuesController : Controller { private readonly ILogger _logger; public ValuesController(ILogger<ValuesController> logger) { _logger = logger; } [HttpGet] public void Get() { _logger.LogTrace("Log Trace."); _logger.LogInformation("Log Information."); _logger.LogDebug("Log Debug."); try { throw new Exception("Boom"); } catch (Exception ex) { _logger.LogCritical(1, ex, "Unexpected critical error starting application"); _logger.LogError(1, ex, "Unexpected error"); _logger.LogWarning(1, ex, "Unexpected warning"); } } }
在Kibana查看
刷新浏览器,显示如下:
在Index pattern中输入logstash-*
,点击下一步:
如上,选择timestamp
,创建索引,最终显示如下:
配置
如上,一行代码,零配置完成了Elasticsearch的写入,默认使用的Elasticsearch地址为http://localhost:9200
,如果我们需要额外的配置也很简单,有如下两种方式:
使用配置文件进行配置
在appsettings.json
中添加如下配置(Elasticsearch节点):
{
"Logging": {
"IncludeScopes": false,
"Console": {
"LogLevel": { "Default": "Warning" } }, "Elasticsearch": { "LogLevel": { "Default": "Information" }, "ElasticsearchUrl": "http://changeme:9200", "AutoRegisterTemplate": true } } }
使用代码进行配置
WebHost.CreateDefaultBuilder(args)
.ConfigureLogging((hostingContext, logging) =>
{
logging.AddFile().AddElasticsearch(o =>
{
o.PipelineName = "http://changeme:9200";
o.AutoRegisterTemplate = true;
});
})
需要注意,如果使用代码的方式进行配置,则配置文件中的配置不再生效。
更多的配置信息参见 EsLoggerOptions。
总结
由于Log4Net, Nlog, Serilog 等流行的日志框架的侵入性太强,故通过对各种开源框架的借鉴,完全基于微软的 Logging 设计思想开发了 zero-logging 框架,现在功能还较为简陋,计划下一步实现结构化日志分析,欢迎交流学习。