管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

黄惠波,腾讯互娱高级工程师

目前主要负责游戏计算资源容器化平台的研发工作,包括 kubernetes / Docker 研究以及定制化开发,主导腾讯游戏万级容器资源调度平台的建设工作。

腾讯在线游戏的容器化应用场景

3 年前,我们开启了容器化探索之路,先回顾一下容器化时代之前遇到的一些问题。

在物理机时代,资源的交付时间较长,资源的利用率较低,也不能做到隔离。到了 Xen\KVM 虚拟机时代,问题得到了初步的解决,但在弹性伸缩方面仍有不足。随着 Docker 技术的兴起,我们开始调研 Docker 在游戏容器化方面的应用。

我们的目标有两个,一是提高资源利用率,二是通过 Docker 镜像来标准化部署流程。

选择 Docker 技术之后,我们开始了容器调度平台的选型。我们当时也调研了其它的一些组件,比如 Shipyard、 Fig 等,但这些组件无法支撑海量游戏容器调度。

而自建调度平台的话,时间成本非常高。

就在那时, Google 开源了 kubernetes(当时的版本是 kubernetes v0.4),我们基于这个版本进行了定制和开发,使其成为我们游戏容器的调度管理平台。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

2015 年初, TDocker 平台上线,开始逐步接入业务。

一开始模式非常简单,就是把 Docker 当成虚拟机来使用,但这不意味着游戏全容器化的实现。

对于一项新技术,大家都很谨慎,会通过不断的灰度上线,由点到面的策略推动。

截至目前,在全国各地以及加拿大等地区,都有我们的部署点;接入容器数超过两万,接入的业务也有两百多款,包括手游、端游、页游。

在这么多的业务中,主要分为两种场景:

  1. 轻量级虚拟机模式

  2. 微服务化模式

接下来会对每一个场景做一些分享。

首先来看一下传统游戏下的架构。这是非常典型的三层服务架构,包括了接入层、逻辑层、数据库层。同时,游戏又分为:全区全服、分区分服两种类型。对于分区分服类游戏,滚服对资源的调度非常频繁,所以我们需要一个高效的调度平台。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

基于 kubernetes v0.4 的调度框架,单击图片可缩放

容器资源的调度管理基于 kubernetes v0.4 版本,上图是一个简化后的调度框架。

  • 在 Master 端包括 ApiServer 和 Scheduler,接收 Web 请求,然后做资源调度。

  • 在每个 node 节点上,包括 agent 进程、 Docker 进程,还有 Lxcfs 进程。

  • 在镜像存储方面,当时用的是 Registry V1 版,后端用的是 ceph 存储。

现在,我们自己维护了一个分支,功能上已满足当前的游戏需求,并保证运行的稳定。所以在虚拟机模式下,我们不会升级 kubernetes,而是把一些好用的功能合并进来。

基于 kubernetes 的功能定制与优化

首先讲调度器,调度器为数以万计的容器提供了一个灵活、稳定、可靠的底层资源计算调度引擎。资源的合理分配像是一场博弈,里面有很多矛盾的地方,需要我们根据游戏的特点做取舍。

我们在原有的调度策略上根据游戏特点做了一些定制。

在网络方面,传统游戏的每个容器都需要一个对外可见的实体 IP,用户可以通过 SSH 登录到容器里面,因此对网络资源进行调度。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

部署容器的时候,会申请 network 的资源(比如 IP)然后进行划分,绑定到 minions 对象。这样调度器调度的时候,就可以通过这些配置信息给容器分配网络资源。

在 CPU 方面,社区大部分容器场景中, CPU 的分配用的是共享 CPU 的方式,而游戏更多采用的是混合部署的模式,不同游戏业务部署到同一台母机,采用绑定核的方式。

这样做一方面可以防止不同游戏之间的 CPU 抢占,另一方面对游戏成本的核算也会更加精细,某个游戏用了多少 CPU 这些指标都是可以量化的。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

在容器分配 CPU 时,结全 NUMA 技术,对于 CPU CORE 的分配会尽量地分配到同一个 NUMA node 上,这样可以提升性能 , 因为同个 NUMA node 的 CPU 访问只需通过自身的 local memory,无需通过系统总线。

在磁盘容量分配方面,由于游戏业务是有状态的服务,需要存储。

  • 我们把磁盘也作为一个可调度的资源分配给容器;

  • 预先计算好母机 DISK 容器,绑定到 minion;

  • 调度器增加 DISK 资源计算;

在非亲和性的调度方面,在容器的可靠性与碎片优化之间需要一个权衡,让用户根据这些策略去选择、部署自己的容器。

在非亲和性的策略中,用户希望把容器是分散到各个母机上,在母机宕机时,减少对游戏的影响。

在 IDC Module 分配方面,游戏容器的部署会按地区划分,比如按照上海、深圳或天津地区的 IDC 来划分,所以我们提供了 IDC 部署策略。

由于游戏需要考虑 IDC 的穿越流量问题,还有网络延时的问题,所以同一个游戏的的不同模块一般会部署到同一个 IDC Module 下面

海量应用过程中遇到的问题与解决方案

1、调度问题修复及优化

以上是基于游戏行业特点定制的调度规划。在资源调度过程中,也遇到过一些问题,例如容器资源的重复调度。

首先在调度过程中它会跟 ScheduledPod(已完全调度的容器)进行比较,判断现在是不是有足够的资源分配给待调度容器,最后通过 Bind(异步)把 Pod 信息写入到 etcd。这里就会出现一个问题,那就是异步写入慢了或者 ScheduledPod 同步慢了导致 ScheduledPods 不能及时刷新, Scheduler 计算出错,从而造成资源重复计算。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

针对这个问题,我们的解决方案是在资源调度完成后,做一个检测的逻辑,检测调度的容器信息是否已在 ScheduledPod Cache 这里,然后再进入下一个容器的调度。当然这会带来一定的性能损耗。

解决了这个问题,又产生了另外一些问题,那就是性能的问题。在 0.4 版本的 pod 接口是非常低效的,在查每一个 pod 状态的时候,会通过实时查所有的 Host 来确定,设计不太合理。社区也做了一些方案,当时我们也是参考了社区的一些方案做了一些改造,把 pod 状态放在 Cache 里面,定时更新,从而提高查询效率。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

还有一点就是 RESTClient。在 kubernetes 中, REST API 大部分是异步进行,对于这些异步的接口的请求,并不会立刻返回结果。这里有一个轮询检测状态的逻辑,在检测轮询的时候有几秒的休眠,然后进再行下一个轮询。默认的休眠时间是 2 秒,这个时间对大部分场景有点过长,我们通过一些功能点的调整,从物理机的小时级到虚拟机分钟级的调度,再到还未调整之前的秒级调度,到现在达到的毫秒级调度,现在的调度能力已能满足游戏的需求。

2、网络方案定制

讲完调度,再看一下网络方面。网络是非常关键、也是最为复杂的一环。在虚拟机模式下,结合公司网络环境为游戏提供高性能、稳定的网络环境,包括 Bridge + VLAN \ SR-IOV 两种方案。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

先来说, Docker 的网络还有 kubernetes 的网络。

对于 Docker 的 NAT 网络来说,性能是最大的瓶颈。同时它与物理机或虚拟机的通信路径不一致也会对业务带来一些未知的影响。比如,外界不能看到容器真实的 IP( 必须要使用主机 IP+port 方式 , 端口本身就是稀缺资源,并且 IP + port 的方式,无疑增加了复杂度 ), TGW 仍然可以为业务程序服务。 Host 模式没有隔离,也不符合需求。

在 kubernetes 中, pod 作为最小调度单元,每个 pod 有两个容器,一个是网络容器,接管 pod 的网络,提供网络服务,并与其它容器共享 net\IPC。另一个是 APP Container,也就是业务容器,使用第一个网络容器的网络。

在 kubernetes 模式下,容器之间的通讯是非常简单的。对于 pod 到 pod、 pod 到物理机、物理机到 pod 的通讯,我们为每个 pod 分配一个内网 IP,对外可见,也可以互相通讯。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

接下来,通过两个方案给大家分析。

1)Bridge + Vlan 的方案

首先是 Bridge+Vlan 的方案,母机都是部署在虚拟化区上,通过 Vlan 做网络的隔离。在母机上架部署时,创建 Bridge 设备和 VLAN 设备并将它们进行关联。

创建容器的时候 , 使用 pipework 脚本创建容器所需要的虚拟网卡设备,并把它们绑定到容器和 Bridge 上,同时会设置容器内的 IP、 Mac 地址以及路由等信息。从而打通容器到外界的网络通信。

这里也做了一些优化以提高性能,这里可以看到一个性能的对比,其中 Bridge 相对 NAT 网络有相当大的提升。这种方式可以满足一部分游戏的需求,而有一些业务,像 FPS、 Moba 游戏等大流量,对网络要求非常高的业务,还有类似 MySQL-Proxy 这种组件,在 Bridge 场景下是无法满足需求的。

2)SR-IOV 方案

所以我们探索了另一种网络方式 SR-IOV 模式,这种模式在 Zen\KVM 虚拟化上用的比较多,游戏也需要这种网络方案,因此我们把这种网络方案也结合到 Docker 容器里面。

这里需要硬件的支持,结合 SR-IOV 技术的网卡,在 Docker 容器内就可以直接通过驱动来加载虚拟的网卡并使用。使用的方式就如同在一台物理机上使用一个真实的物理网卡一样,这个虚拟网卡也拥有驱动程序,也拥有 PCI BUSID,因此所有的虚拟机网络操作都如同操作普通网卡一般,从而在性能上得到提升。

为了进一步发挥 SR-IOV 的网络性能,还需要对容器的相关网络参数进行配置,主要包括以下几个方面: VF 中断 CPU 绑定;关闭物理机的 irqbalance ;容器内设置 RPS(软中断均衡)网卡不能中断均衡,对高性能的网络形成了阻碍。为了解决这个问题,需要设置容器内的软中断均衡。

通过上述的调整,性能得到了大幅度提升。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

上图是我们测试的一个结果,我们对比物理机、Bridge 还有 SR-IOV。

SR-IOV 在网络性能方面基本上已经接近了物理机,所以这个对于游戏大包量、大流量的应用是非常适合的,现在我们把 SR-IOV 网络作为传统游戏里默认的网络模式。

3、资源配额

在游戏容器化过程中,我们希望资源的使用是明确的、合理的、可量化的。所以我们会为每个容器分配固定的资源,比如多少 CPU、多少内存,还有需要多大磁盘、 IO 带宽。在启动容器的时候,比如 CPU / Memory,通过 cgroups 去做一个限制, disk 通过 xfs quota 去做配额的限制。还有 Buffered-IO 带宽的限制。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

在资源分配方面,我们开始做的是限定的 CPU、内存的分配。在容器的整个生命周期,这个配置并非一成不变,比如在业务运行过程中都会有一些起伏和动态调整,这是游戏的一张生命周期图像,生命周期比较短,可能是一年半载的时间,而且这里在线人数起伏也会比较大,需要动态调整。

动态调整就会涉及两个方面,一是横向的水平扩展,二是垂直伸缩。每个游戏都会有一个 IP,因此横向拓展比较困难,因而更倾向于稳定的垂直扩缩。

在虚拟化时代,扩缩容是有损的,需要重启机器来实现,而 Docker 可以做到无损的扩缩容。我们对这个需求做了一些定制开发,比如 CPU 或者内存,通过修改 cgroups 的配额去把它提升上去或是削减下来

当在线人数上来的时候,我们可以给业务做到无损扩容,不影响业务服务。

过了一段时间,当人数降下来时,资源会闲置,我们会对空闲的资源做一些重复利用,将其回收。这个时候做一些缩容,针对缩容我们做一个常态的动作,检测这些容器的 CPU、内存,结合业务的负载、活动、定时驱动。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

Buffered IO Throttle 需要内核支持,我们与内核团队进地了紧密的合作,提供了支持 Buffered IO Throttle 功能的内核版本。根据容器在母机资源的占比分配一定比例的 IO 带宽。这在某种程序上解决了游戏之间互相影响的问题。

4、告警与监控

监控、告警是整个游戏运营过程中最为核心的功能之一。容器上的监控有别于物理机, cAdvisor 和 kubenetes 结合得比较紧密,是个不错的方案。但它需要自建监控平台,与周边各系统的兼容性也有待考验,同时改变运维的使用习惯也需要时间。

综合考虑各种因素后,我们放弃了 cAdvisor。

我们重新调研其它方案。希望可以沿用公司成熟的监控平台,而且兼容周边系统。最终我们选用的是 lxcfs + 公司 agent 的方案,通过 lxcfs 去实现 Docker 容器内的虚拟 proc 文件系统,增强容器的隔离性。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

我们这里以 meminfo 内存统计信息为例,为大家讲解如何通过 lxcfs 用户态文件系统实现 Docker 容器内的虚拟 proc 文件系。

挂载虚拟 proc 文件系统到 Docker 容器,通过 Docker 的 volume 功能,将母机上的 /var/lib/dockerfs/Docker-xxx/proc 挂载到 Docker 容器内部的虚拟 proc 文件系统目录下 /proc/。此时在容器内部 /proc/ 目录下可以看到一些列 proc 文件,其中包括 meminfo。用户在容器内读取 /proc/meminfo 时,实际上是读取宿主机上的 /var/lib/dockerfs/Docker-xxx/proc/meminfo 挂载到容器内部的 meminfo 文件。内核 VFS 将用户请求转发到具体文件系统—— fuse, fuse 文件系统封装 VFS 请求 , 将请求转发给 Fuse 设备 ( /dev/fuse)。如果设备上有已经处理完成的请求(例如 Cache),文件系统获取处理结果并返回给 VFS, VFS 再反馈给用户。用户库 (fuse daemon) 直接访问 Fuse 设备,读取文件系统转发到设备上的请求,分析请求类型,调用用户接口处理请求,处理完成后将处理结果返回给设备,再由设备返回给 VFS, VFS 再反馈给用户,从而实现容器内的隔离。公司 agent 可以通过读取 memory 等信息,上报到监控平台做分析与报警。同时运维通过 SSH 登录到这个容器,通过 free、 top 等命令查看性能,维持了运维原来的使用习惯。

5、持久化存储

在传统游戏里,更多的是有状态的服务会涉及到数据的存储,我们通过 Docker 的 volume 提供持久化存储。

最开始我们采用 HostPath 方式,把 host 上的目录挂载到容器里(例如/ data)作为数据存储。这种做法非常方便、简单,无需额外的支持,但数据的安全性、可靠性方面比较差。

我们采用了 Ceph 作为存储方案。

改造 kubenetes 支持 ceph,通过 volume 挂载,提供更安全、更可靠的数据存储方案。解决在 host 故障时,数据丢失的问题,应用场景也变得更加广泛,包括数据库存储,镜像存储,容器迁移等。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

kubernetes 1.2 与微服务化

今年,我们开始支撑第一款微服务化游戏 ( 极品飞车 online),源于之前对 kubernetes 的使用经验。在微服化容器的调度中我们沿用了 kubernetes。

在版本上重新做了选择,跟随着社区的发展,选用了 v1.2 版。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

在微服务化模式下,游戏的架构产生了很大的变化。按功能细分到各个小模块,通过镜像交付、分发,最后以容器来部署服务。每个模块相对独立,之间信息流交互通过消息组件(例如 RabbitMQ) 来实现。同时每个容器无须配置内网 IP,可以通过域名来访问。

在网络方面也有所调整,我们也评估了 Docker overlay、 flannel、 vxlan、 maxvlan、 SR-IOV 等,结合其中的优缺点,最后我们选定的方案如下:

  1. 集群内 pod 与 pod 的之间的通信,由于不需要内网 IP(可以用虚拟 IP)所以采用 overlay 网络,由 flannel 组件实现。

  2. 公司内网到集群内 pod 通信,例如 HAProxy,游戏某些模块,采用 SR-IOV 网络,由自己定制的 sriov-cni 组件实现。这类 pod 具备双重网络, eth0 对应 overlay 网络, eth1 对应 SR-IOV 网络。

  3. pod 到公司内网之间的通信。在微服务场景下,游戏的数据存储,周边系统等,部署在物理机或者虚拟机上,因此 pod 到这些模块、系统的访问,走的是 NAT 网络。

  4. (Internet) 接入,采用公司的 TGW 方案。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

在整个微服化平台上,涉及到的关健技术点会更多:

  1. 网络方案:即上述讲到了 overlay + SR-IOV + TGW + NAT 方案

  2. 日志,监控:对于微服务化架构的游戏,版本的交付都是通过镜像,不会把公司的 agent 打到镜像,所以原来的 lxcfs + agent 监控就不适应了,所以这里我们重新打造了一个新的日志、监控平台,与蓝鲸团队合作,实现了游戏业务日志采集;容器健康状态、性能的监控

  3. 高可用方案:在资源的部署方面,我们采用了 replication controller 方式,通过 kubernetes 的 controller manager 模块来监测 pod 的状态,在发生故障的时候,实现快速的迁移、恢复服务。另一方面,在 load balance 场景下,我们采用了 HAProxy 来实现

  4. 安全方面: kubernetes 集群承载着整个游戏容器资源的调度、管理。不管是人为误操作,还是黑客入侵,造成的影响将是非常之大。所以安全是我们需要考虑的重点,结合 kubernetes,我们目前做了以几方面,后面会有更加的安全策略提供。

    1. Authentication 和 Authorization。使用 HTTPS 来加密流量,同时在用户权限验证上,提供了 token 验证方式、 ABAC 权限认证方式

    2. Admission Controllers:配置具体的准入规则

    3. ServiceAccount:主要解决运行在 pod 里的进程需要调用 kubernetes API 以及非 kubernetes API 的其它服务问题

  5. 配置管理:通过 configmap\secret 为游戏提供简易的配置管理

  6. 服务发现: kubernetes 会为每个 pod 分配一个虚拟的 IP,但这个 IP 是非固定的,例如 pod 发生故障迁移后,那么 IP 就会发生变化。所以在微服务化游戏架构下,业务 pod 之间的访问更多地采用域名方式进行访问。在 kubernetes 生态链中,提供了 skydns 作为 DNS 服务器,结合 kubernetes 的 server 可以很好的解决域名访问问题

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

开始讲游戏容器化的时候谈到用镜像来标准化部署,所以我们花了很多时间打造企业级的镜像仓库。目前支持 registry v1\v2 两个版本,如下图所示。

在 client 端 (Docker) 与 registry 之间,采用 Nginx 作为代理,实现 v1\v2 不同请求的转发,这样一来,用户无需关心到底请求的是 v1 还是 v2。

管理数万个实例,服务上百个业务:kubernetes在腾讯游戏的使用及演进历程

在安全方面,不同类型用户不同的权限验证方案。公司内部用户接入 OA 认证,与公司平台打通。外部用户需要申请访问权限,由管理员分配帐号,然后通过分配的帐号来请求。

在大批量拉取镜像的时候,镜像中心的性能、效率是我们需要考虑的问题。前期我们通过 mirror 方案来实现,在主要城市部署 mirror registry,通过就近原则来拉取镜像,解决性能瓶颈。后续我们还会采用 P2P 方案来提升镜像拉取性能。

同时我们定制了 Notification Server,用于镜像 pull\push 日志记录,便于后续分析与审计。

在镜像后端存储方面,采用 ceph 集群方案,从而提供稳定、强大的数据存储。

微服务化之路我们刚刚起航,在面临挑战的同时也带来了机遇。

不仅仅是在线业务的探索,我们也会探索离线计算、深度学习等系统的支持。

我们目前开源了 sriov kubernetes 的网络插件,集中了腾讯游戏两种模式下容器的高性能网络经验,可以通过github 关注:

https://github.com/hustcat/sriov-cni

来源于社区,回馈于社区。后续我们还会更多地参与社区互动,为社区做贡献。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值