一、出现背景
基于分布式的架构中,需要管理的服务是非常多的,无论是服务的数量还是体系划分;
从服务的能力上看,可以进行分层管控,只是其中有相当一部分服务层,改动更新的频率很低,所以感知也不明显;
通过K8S进行管理的服务近百个,这中间有部分服务采用集群模式,即便是这个规模的系统,也几乎不可能依赖纯人工运维的形式,自动化流程必不可少;
Kubernetes 解决的核心问题
- 服务发现和负载均衡
- Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果到容器的流量很大,Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。
- 存储编排
- Kubernetes 允许您自动挂载您选择的存储系统,例如本地存储、公共云提供商等。
- 自动部署和回滚
- 您可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态更改为所需状态。例如,您可以自动化 Kubernetes 来为您的部署创建新容器,删除现有容器并将它们的所有资源用于新容器。
- 自动二进制打包
- Kubernetes 允许您指定每个容器所需 CPU 和内存(RAM)。当容器指定了资源请求时,Kubernetes 可以做出更好的决策来管理容器的资源。
- 自我修复
- Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。
- 密钥与配置管理
- Kubernetes 允许您存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。您可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。
Kubernetes 的出现不仅主宰了容器编排的市场,更改变了过去的运维方式,不仅将开发与运维之间边界变得更加模糊,而且让 DevOps 这一角色变得更加清晰,每一个软件工程师都可以通过 Kubernetes 来定义服务之间的拓扑关系、线上的节点个数、资源使用量并且能够快速实现水平扩容、蓝绿部署等在过去复杂的运维操作。
二、持续集成
主要围绕Jenkins、Docker、K8S等组件的使用层面,总结源码编译、打包、镜像构建、部署等自动化管理的流程;
Jenkins:是一个扩展性非常强的软件,用于自动化各种任务,包括构建、测试和部署等;
Docker:作为开源的应用容器引擎,可以把应用程序和其相关依赖打包生成一个Image镜像文件,是一个标准的运行环境,提供可持续交付的能力;
Kubernetes:作为开源的容器编排引擎,用来对容器化应用进行自动化部署、 扩缩和管理;
三、K8S架构
1、核心组件
Control-Plane-Components:控制平面组件
对集群做出全局决策,例如:资源调度、检测、事件响应,可以在集群中的任何节点上运行;
- api:开放K8S的API,组件之间通过API交互,相当于控制面的前端;
- controllermanager:运行控制器进程,逻辑上是一个单独的进程;
- scheduler:监听新建未指定运行节点的Pods,并为Pod选择运行节点;
- etcd:兼具一致性和高可用性的键值数据库,作为保存K8S数据的后台库;
Node:节点组件
该组件会在每个节点上运行,负责维护运行的Pod并提供Kubernetes运行环境;
- kubelet:在每个节点上运行的代理,保证容器都运行在Pod中;
- kube-proxy:每个节点上运行的网络代理, 维护节点上的网络规则;
Container-Runtime:容器运行时
负责运行容器的软件,支持Docker、containerd、CRI-O等多个容器运行环境,以及任何实现Kubernetes-CRI容器运行环境接口;
2、分层结构
从整体的功能上来考虑,K8S集群可以分为:用户、控制平面、节点三个模块;
用户侧:不论是CLI命令行还是UI界面,会与控制面板的APIserver进行交互,APIserver再与其他组件交互,最终执行相应的操作命令;
控制平面:以前也称为Master,核心组件包括APIserver、controller、scheduler、etcd,主要用来调度整个集群,以及做出全局决策;
节点:通过将容器放入在节点上运行的Pod中来执行工作负载,简单的理解工作负载就是各种应用程序等,节点上的核心组件包括Pod、kubelet、Container-Runtime、kube-proxy等;
3、核心能力
站在研发的视角来看,K8S提供极其强大的应用服务管理能力;
3.1 发现与负载
服务Service可以将运行在一个或一组Pod上的网络应用程序公开为网络服务的方法,通常使用标签对资源对象进行筛选过滤;
3.2 调度
调度器通过监测机制来发现集群中新创建且尚未被调度到节点上的Pod,由于Pod中的容器和Pod本身可能有不同的资源要求,调度会将Pod放置到合适的节点上;
3.3 自动伸缩
K8S可以通过指标检查工作负载的资源需求,例如CPU利用率、响应时长、内存利用率、或者其他,从而判断是否需要执行伸缩,垂直维度可以是更多的资源分配,水平维度可以是更多的集群部署;
K8S可以自动伸缩,也具备自动修复的能力,当节点故障或者应用服务异常时,会被检查到,可能会进行节点迁移或者重启;
四、应用案例
1、服务部署
在此前的实践案例中,用CLI命令行和脚本文件的方式,完成的部署动作,而在整个流程中涉及集群的多个组件协作,多次的通信和调度;
2、交互流程
【1】CLI命令行和UI界面,都是通过APIserver接口,与集群内部组件交互,比如上述的Pod部署操作;
【2】在APIserver收到请求之后,会将序列化状态的对象写入到etcd中完成存储操作;
【3】Scheduler调度器通过监测(Watch)机制来发现集群中新创建且尚未被调度到节点上的Pod;
【4】在集群中找到一个Pod的所有可调度节点,对这些可调度节点打分,选出其中得分最高的节点来运行Pod,然后调度器将这个调度决定通知给APIserver;
【5】APIserver完成信息存储后,然后通知相应节点的Kubelet;
【6】Kubelet是基于PodSpec来工作的,确保这些PodSpec中描述的容器处于运行状态且运行状况良好,每个PodSpec是一个描述Pod的YAML或JSON对象;
【7】Pod是可以在Kubernetes中创建和管理的、最小的可部署的计算单元,包括一个或多个容器;