Traefik的可观测性支持
注意:
在Traefik-2.X的生态里,将可观测性分为了如下几个部分,并提升到了专门的功能说明中
- 服务日志: Traefik进程本身相关的操作日志
- 访问日志: 由Traefik接管的代理服务的访问日志(access.log)
- Metrics: Traefik提供的自身详细的metrics数据
- Tracing: Traefik也提供了追踪相关的接口,用来可视化分布式或微服务中的调用情况
服务日志
注意:
默认的环境中,Traefik会将日志以text
格式写入到stdout中,如果使用docker的方式部署的话,想要查看日志需要使用docker logs container_name
方式来查看日志。
相关配置
# toml 配置文件
$ cat traefik.toml
[log]
filePath = "/path/to/traefik.log" # 配置traefik的进程日志路径
format = "json" # 配置日志文件的格式[text(text|json)]
level = "DEBUG" # 指定日志输出的级别[ERROR(ERROR|DEBUG|INFO|PANIC|FATAL|WARN)]
# cli 配置
--log.filePath=/path/to/traefik.log
--log.format=json
--log.level=DEBUG
注意:
具体的日志配置参数需要和当前环境中的traefik大版本兼容,否则可能会出现意想不到的问题。
访问日志
访问日志用来记录通过traefik进来的各个请求的访问详情,包含HTTP请求的各个header以及响应时间等数据,类似于Nginx中的access.log
,通常情况,我们可以使用访问日志来分析整个traefik的整体流量以及各个服务流量以及状态详情。
注意:
访问日志默认也是以text
格式被写到标准输出的
相关配置
# toml 配置文件
$ cat traefik.toml
[accessLog]
filePath = "/path/to/traefik.log"
format = "" # 指定访问日志的格式,默认使用CLF(Common Log Format),可以指定为json格式
bufferingSize = 100 # 以异步方式写入日志需要指定该参数,表示写入到指定输出设备前保留在内存中的日志行数
[accessLog.filters] # 指定一组逻辑上是Or的过滤连接器,指定多个过滤器将比只指定一个过滤器保留更多的访问日志
statusCodes = ["200", "300-302"] # 过滤指定状态码范围的请求日志
retryAttempts = true # 当有重试时保留日志
minDuration = "10ms" # 当请求花费的时间超过指定的持续时间时,保留访问日志
[accessLog.fields] # 限制访问日志中的字段(可以使用fields.names和fields.header选项来决定字段的输出)
defaultMode = "keep" # 每种字段可以设置成如下字段(keep:保留字段,drop:丢弃,redact:使用redacted替换值)
[accessLog.fields.names] # 指定限制的字段名称
"ClientUsername" = "drop" # 设置ClientUsername字段为丢弃
[accessLog.fields.headers] # 设置headers相关字段
defaultMode = "keep" # 对全部的header进行默认保留
[accessLog.fields.headers.names] # 对指定的header字段设置保留规则
"User-Agent" = "redact"
"Authorization" = "drop"
"Content-Type" = "keep"
# cli 配置
--accesslog=true
--accesslog.filepath=/path/to/access.log
--accesslog.format=json
--accesslog.bufferingsize=100
--accesslog.filters.statuscodes=200,300-302
--accesslog.filters.retryattempts
--accesslog.filters.minduration=10ms
--accesslog.fields.defaultmode=keep
--accesslog.fields.names.ClientUsername=drop
--accesslog.fields.headers.defaultmode=keep
--accesslog.fields.headers.names.User-Agent=redact
--accesslog.fields.headers.names.Authorization=drop
--accesslog.fields.headers.names.Content-Type=keep
注意:
由于我们是将Traefik当做Kubernetes集群中的边缘节点,去代理内部HTTP服务的,因此Traefik部署在集群内部,将进程日志和访问日志都以volume的方式挂载到边缘节点的数据目录中。
使用DaemonSet
方式将Traefik部署在k8s集群内部,具体的配置如下:
$ cat traefik-ds.yml
---
kind: DaemonSet
apiVersion: extensions/v1beta1
metadata:
name: traefik-ingress-controller
namespace: kube-system
labels:
k8s-app: traefik-ingress-lb
spec:
template:
metadata:
labels:
k8s-app: traefik-ingress-lb
name: traefik-ingress-lb
spec:
affinity:
# 定义node的亲和性,不允许调度到master节点
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: node-role.kubernetes.io/master
operator: DoesNotExist
serviceAccountName: traefik-ingress-controller
terminationGracePeriodSeconds: 30
hostNetwork: tru