线上服务接入elk的规范

1. 目前暂时只支持 阿里云 线上的 同一个安全组 内的服务器

2. log记录注意事项:

    2.1 如果在一台机器上需要启动多个进程,多个服务,请确保每个服务每个进程的log文件不冲突,不会出现记录错误。

    2.2 目前,elk监控log文件的目录的变动,以决定是否更新同步log。

3. 使用elk的步骤:

    3.1 让进程和服务写本地的log文件。

    3.2 log文件的每一行,是一个log记录,每一个log记录,是一个json格式数据。

    3.3 每一个log记录,必须有三个公用字段:"biztype",业务类型,比如爬虫,流水,名称可以自己定义; "logtimestamp":log事件的发生时间,请使用东八区时间(上海时间),时间格式精确到毫秒,统一使用"2017-12-26 10:48:28.317"这种格式; "token": 每个任务的唯一识别号。然后,可以自己增加更多的自定义字段,比如ip地址,爬取参数,请求参数,返回结果等等,但也不要太大比不要存整个html页面。

4. 将log同步到elk:

    4.1 开发人员将自己的应用部署的ecs的  ip地址,登录ecs的帐号和密码,各进程/各服务的log所在目录,发邮件告诉运维。

    4.2 由运维统一进行操作后续的工作。

    4.3 生产项目日志已经可以按照 "IP地址-项目名"规则录入ELK日志系统.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Spring Cloud中接入ELK(Elasticsearch、Logstash、Kibana)可以通过集成Logstash和Kibana来实现。 首先,你需要在你的Spring Cloud项目中添加Logstash依赖,例如fc-gateway-zuul、fc-service-portal和fc-service-screen。然后,你需要启动这些服务,并确保它们将日志输出到Logstash。 接下来,你需要启动Elasticsearch和Kibana。Elasticsearch是一个用于存储和搜索日志数据的分布式搜索和分析引擎,而Kibana则是一个用于可视化和分析日志数据的工具。你需要配置Logstash将数据发送到Elasticsearch,并使用Kibana来查看和搜索日志数据。 在你的Spring Cloud项目中,你可以使用Logstash的日志输出功能将日志发送到Logstash服务器。通过在Logstash的配置文件中指定接收日志的端口和协议,你可以让Logstash接收来自Spring Cloud应用程序的日志数据。然后,你可以在Kibana中配置Logstash索引模式,以便对日志数据进行搜索和分析。 通过在你的Spring Cloud项目中添加Logstash和Kibana的集成,你可以使用Kibana来查看和搜索你的应用程序的日志,以便于进行故障排除和性能监控。 在你的Spring Cloud项目中,你可以通过在控制器方法中添加日志语句,并确保将日志级别设置为合适的级别,从而记录日志。这样,你就可以在Kibana中查看和搜索这些日志。 总之,通过在Spring Cloud项目中集成Logstash和Kibana,你可以方便地将日志数据发送到Elasticsearch,并使用Kibana来可视化和分析这些日志数据。这样可以帮助你更好地理解和监控你的应用程序的运行情况。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值