函数计算采坑之路4:使用日志服务查看ecs挂载的nfs日志

本文记录了在使用阿里云函数计算时遇到的日志服务配置问题,包括一个logstore只能配置一个目录的限制、ECS上local_event.json文件更新的重要性以及掌握正则表达式的必要性。通过导入历史日志文件功能,解决了增量日志采集的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用日志服务,读取函数计算产生的日志

  1. 因为日志服务Logtail默认只采集增量的日志文件(大白话来讲就是只支持最近产生的文件查看,有可能就几个小时)所以如果需要导入历史文件,可使用Logtail自带的导入历史文件功能。

  2. 阿里云 —导入历史日志文件

  3. 前提是:已在服务器上安装0.16.15(Linux系统)或1.0.0.1(Windows系统)及以上版本的Logtail,

  4. Windows系统Linux系统

  5. 白话文翻一下阿里云操作步骤

    1.获取Logtail配置的唯一标识。
    		您可以在Logtail安装目录下的user_log_config.json文件中获取Logtail配置的唯一标识。
    (就看看你自己的project叫什么名字,别找错)
    

在这里插入图片描述

	2.添加本地事件。
			在Logtail安装目录下,创建local_event.json文件。
	在local_event.json文件中添加本地事件,类型为标准JSON,格式如下所示。
[ 
  {
    "config" : "${your_config_unique_id}",
    "dir" : "${your_log_dir}",
    "name" : "${your_log_file_name}"
   },
  {
		实例也就是下边这个样子
[
  {
    "config" : "##1.0##ceshish$ceshi",//Logtail配置的唯一标识
    "dir" : "C:\\runtime\\log202006",
    //这里是你的文件路径:注意啊得指定到实际目录,历史数据采集不支持递归子目录
    "name" : "*.log" //需要采集的文件后缀

  }
]

每一次修改的时候一定要注意,看看这个文件会不会丢失。

在这里插入图片描述
那么关于ecs上面的一些操作就结束了,下面看看阿里云上的部分操作

首先还是创建一个自己的project,这个比较简单,自己搜搜看看就会

在这里插入图片描述

建好后,接入数据。这估计会有两种情况会出现,
	1:边建project的时候直接就接入数据 
	2:没等到接入数据就关掉界面了,我们下次进来时可以将直接点击自己建好的内阁project,
进去后在接入这个配置就完事了

在这里插入图片描述

	选择分隔符日志直接接入

在这里插入图片描述

	进入后如果已经有机器组看就直接使用,没有的选中你的实例。点击下一步,一步步操作

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

	正常来讲下一步后会出现心跳这个东西,显示有可能是full,多点击几下重试,直到变为ok再进行下一步
	变不了的看看是不是上边的Logtail没安装,自己排除下错误。然后就回到下面的这个界面

在这里插入图片描述

之后直接下一步下一步,按照下边点击查看即可

在这里插入图片描述

记录两个难受的点:

1、一个logstore采集,只配置一个目录。我就是在一个里面配置了俩,咋搞都不好使

2、ecs服务器上的local_event.json文件在写错后,或者更换后需要及时更新,及时更新,及时更新

3、熟练掌握正则表达,要不然很难过。。。很难过

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值