【K8S学习笔记-000】K8s简介


学习视频: https://www.bilibili.com/video/BV13Q4y1C7hS?p=26&spm_id_from=pageDriver&vd_source=0bf662c33adfc181186b04ba57e11dff
附带笔记: https://www.yuque.com/leifengyang/oncloud/kgheaf

Kubernetes 简介

中文文档: https://kubernetes.io/zh/docs/
英文文档: https://kubernetes.io/docs/home/

Kubernetes是自动化容器操作的开源平台,这些操作包括部署,调度和节点集群间扩展

使用Kubernetes可以:

  1. 自动化容器的部署和复制
  2. 随时扩展或收缩容器规模
  3. 将容器组织成组,并且提供容器间的负载均衡
  4. 很容易地升级应用程序容器的新版本
  5. 提供容器弹性,如果容器失效就替换它,等等…

Kubernetes解决的问题:

  1. 调度 - 容器应该在哪个机器上运行
  2. 生命周期和健康状况 - 容器在无错的条件下运行
  3. 服务发现 - 容器在哪,怎样与它通信
  4. 监控 - 容器是否运行正常
  5. 认证 - 谁能访问容器
  6. 容器聚合 - 如何将多个容器合并成一个工程

Kubernetes 的特性

● 服务发现和负载均衡
Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。
● 存储编排
Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。
● 自动部署和回滚
你可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态 更改为期望状态。例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。
● 自动完成装箱计算
Kubernetes 允许你指定每个容器所需 CPU 和内存(RAM)。 当容器指定了资源请求时,Kubernetes 可以做出更好的决策来管理容器的资源。
● 自我修复
Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的 运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。
● 密钥与配置管理
Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。

Kubernetes 为你提供了一个可弹性运行分布式系统的框架。 Kubernetes 会满足你的扩展要求、故障转移、部署模式等。 例如,Kubernetes 可以轻松管理系统的 Canary 部署。

Kubernetes 的架构

工作方式

Kubernetes Cluster = N Master Node + N Worker Node:N主节点+N工作节点; N>=1

组件架构

在这里插入图片描述

在这里插入图片描述

控制平面组件(Control Plane Components)

控制平面的组件对集群做出全局决策(比如调度),以及检测和响应集群事件(例如,当不满足部署的 replicas 字段时,启动新的 pod)。
控制平面组件可以在集群中的任何节点上运行。 然而,为了简单起见,设置脚本通常会在同一个计算机上启动所有控制平面组件, 并且不会在此计算机上运行用户容器。 请参阅使用 kubeadm 构建高可用性集群 中关于多 VM 控制平面设置的示例。

kubectl - 客户端命令行工具,将接受的命令格式化后发送给kube-apiserver,作为整个系统的操作入口。

DNS
一个可选的服务,用于为每个Service对象创建DNS记录,这样所有的Pod就可以通过DNS访问服务了。

kube-apiserver
API 服务器是 Kubernetes 控制面的组件, 该组件公开了 Kubernetes API。 API 服务器是 Kubernetes 控制面的前端。
Kubernetes API 服务器的主要实现是 kube-apiserver。 kube-apiserver 设计上考虑了水平伸缩,也就是说,它可通过部署多个实例进行伸缩。 你可以运行 kube-apiserver 的多个实例,并在这些实例之间平衡流量。

etcd
etcd 是兼具一致性和高可用性的键值数据库,可以作为保存 Kubernetes 所有集群数据的后台数据库。
您的 Kubernetes 集群的 etcd 数据库通常需要有个备份计划。
要了解 etcd 更深层次的信息,请参考 etcd 文档。

kube-scheduler
控制平面组件,负责监视新创建的、未指定运行节点(node)的 Pods,选择节点让 Pod 在上面运行。
调度决策考虑的因素包括单个 Pod 和 Pod 集合的资源需求、硬件/软件/策略约束、亲和性和反亲和性规范、数据位置、工作负载间的干扰和最后时限。

kube-controller-manager
在主节点上运行 控制器 的组件。
从逻辑上讲,每个控制器都是一个单独的进程, 但是为了降低复杂性,它们都被编译到同一个可执行文件,并在一个进程中运行。
这些控制器包括:
● 节点控制器(Node Controller): 负责在节点出现故障时进行通知和响应
● 任务控制器(Job controller): 监测代表一次性任务的 Job 对象,然后创建 Pods 来运行这些任务直至完成
● 端点控制器(Endpoints Controller): 填充端点(Endpoints)对象(即加入 Service 与 Pod)
● 服务帐户和令牌控制器(Service Account & Token Controllers): 为新的命名空间创建默认帐户和 API 访问令牌
cloud-controller-manager
云控制器管理器是指嵌入特定云的控制逻辑的 控制平面组件。 云控制器管理器允许您链接集群到云提供商的应用编程接口中, 并把和该云平台交互的组件与只和您的集群交互的组件分离开。
cloud-controller-manager 仅运行特定于云平台的控制回路。 如果你在自己的环境中运行 Kubernetes,或者在本地计算机中运行学习环境, 所部署的环境中不需要云控制器管理器。
与 kube-controller-manager 类似,cloud-controller-manager 将若干逻辑上独立的 控制回路组合到同一个可执行文件中,供你以同一进程的方式运行。 你可以对其执行水平扩容(运行不止一个副本)以提升性能或者增强容错能力。
下面的控制器都包含对云平台驱动的依赖:
● 节点控制器(Node Controller): 用于在节点终止响应后检查云提供商以确定节点是否已被删除
● 路由控制器(Route Controller): 用于在底层云基础架构中设置路由
● 服务控制器(Service Controller): 用于创建、更新和删除云提供商负载均衡器

Node 组件

节点组件在每个节点上运行,维护运行的 Pod 并提供 Kubernetes 运行环境。
kubelet
一个在集群中每个节点(node)上运行的代理。 它保证容器(containers)都 运行在 Pod 中。
kubelet 接收一组通过各类机制提供给它的 PodSpecs,确保这些 PodSpecs 中描述的容器处于运行状态且健康。 kubelet 不会管理不是由 Kubernetes 创建的容器。
kube-proxy
kube-proxy 是集群中每个节点上运行的网络代理, 实现 Kubernetes 服务(Service) 概念的一部分。
kube-proxy 维护节点上的网络规则。这些网络规则允许从集群内部或外部的网络会话与 Pod 进行网络通信。
如果操作系统提供了数据包过滤层并可用的话,kube-proxy 会通过它来实现网络规则。否则, kube-proxy 仅转发流量本身。

kubernets核心概念

集群

集群是一组节点,这些节点可以是物理服务器或者虚拟机,之上安装了Kubernetes平台。下图展示这样的集群。注意该图为了强调核心概念有所简化。这里可以看到一个典型的Kubernetes架构图
在这里插入图片描述

上图可以看到如下组件,使用特别的图标表示Service和Label:
• Pod
• Container(容器)
• Label()(标签)
• Replication Controller(复制控制器)
• Service()(服务)
• Node(节点)
• Kubernetes Master(Kubernetes主节点)

Master

Kubernetes里的 Master指的是集群控制节点,在每个 Kubernetes集群里都需要有一个Master来负责整个集群的管理和控制。
基本上 Kubernetes的所有控制命令都发给它,它负责具体的执行过程,我们后面执行的所有命令基本都是在 Master上运行的。
Master通常会占据一个独立的服务器(高可用部署建议用3台服务器)。
原因是它太重要了,是整个集群的“首脑”,如果它宕机或者不可用,那么对集群内容器应用的管理都将失效。

在 Master上运行着以下关键进程:

  • kube-apiserver: 提供了 Http Rest接口的关键服务进程,是 Kubernetes里所有资源的增、删、改、查等操作的唯一入口,是集群控制的入口进程。
  • kube-controller-manager: Kubernetes里所有资源对象的自动化控制中心,可以将其理解为资源对象的“大总管”。
  • kube-scheduler: 负责资源调度(Pod调度)的进程,相当于公交公司的“调度室”。

另外,在 Master上通常还需要部署etcd服务,因为 Kubernetes里的所有资源对象的数据都被保存在etcd中

Node

除了 Master, Kubernetes集群中的其他机器被称为Node,在较早的版本中也被称为Minion。
与 Master一样,Node可以是一台物理主机,也可以是一台虚拟机。
Node是Kubernetes集群中的工作负载节点,每个Node都会被 Master分配一些工作负载( Docker容器)。

当某个Node宕机时,其上的工作负载会被 Master自动转移到其他节点上。
在每个Node上都运行着以下关键进程:

  • kubelet: 负责Pod对应的容器的创建、启停等任务,同时与 Master密切协作,实现集群管理的基本功能。
  • kube-proxy: 实现 Kubernetes Service的通信与负载均衡机制的重要组件。
  • Docker Engine( docker): Docker引擎, 负责本机的容器创建和管理工作。

Node可以在运行期间动态增加到 Kubernetes集群中, 前提是在这个节点上已经正确安装、配置和启动了上述关键进程。
在默认情况下 kubelet会向 Master注册自己,这也是Kubernetes推荐的Node管理方式。
一旦Node被纳入集群管理范围, kubelet进程就会定时向 Master汇报自身的情报,例如:
操作系统、 Docker版本、机器的CPU和内存情况,以及当前有哪些Pod在运行等。
这样 Master就可以获知每个Node的资源使用情况,并实现高效均衡的资源调度策略。
当某个Node在超过指定时间不上报信息时,会被 Master判定为“失联”, Node的状态被标记为不可用( Not Ready)。
随后 Master会触发“工作负载大转移”的自动流程。

Pod

Pod(上图绿色方框)包含一组容器和卷。同一个Pod里的容器共享同一个网络命名空间,可以使用localhost互相通信。Pod是短暂的,不是持续性实体。

你可能会有这些问题:
• 如果Pod是短暂的,那么我怎么才能持久化容器数据使其能够跨重启而存在呢?
Kubernetes支持卷的概念,因此可以使用持久化的卷类型。
• 是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么?
可以手动创建单个Pod,但是也可以使用Replication Controller使用Pod模板创建出多份拷贝。
• 如果Pod是短暂的,那么重启时IP地址可能会改变,那么怎么才能从前端容器正确可靠地指向后台容器呢?
可以使用Service。
Pod是非常重要的基本概念,我们后面会详细讲解。

Lable

正如图所示,一些Pod有Label。一个Label是attach到Pod的一对键/值对,用来传递用户定义的属性。
比如,我们可以通过Label(tier=frontend, app=myapp)来标记前端Pod容器,使用Label(tier=backend, app=myapp)标记后台Pod。
然后可以使用Selectors选择带有特定Label的Pod,并且将Service或者Replication Controller应用到上面。
一些常用的Label如下:
• 版本标签:“release”:“stable”,“release”:“canary”…
• 环境标签:“environment”:“dev”,“environment”:“qa”,“environment”:“production”
• 架构标签:“tier”:“frontend”,“tier”:“backend”,“tier”:“middleware”
• 分区标签:“partition”:“customerA”,“partition”:“customerB”
• 质量管控标签:“track”:“daily”,“track”:“weekly”
Label相当于我们熟悉的标签,给某个资源对象定义一个Label就相当于给它打了一个标签,随后可以通过Label Selector(标签选择器)查询和筛选拥有某些Label的资源对象,Kubernetes通过这种方式实现了类似SQL的简单又通用的对象查询机制。

Replication Controller

是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么,能否将Pods划到逻辑组里?

Replication Controller确保任意时间都有指定数量的Pod"副本"在运行。如果为某个Pod创建了Replication Controller并且指定3个副本,它会创建3个Pod,并且持续监控它们。
如果某个Pod不响应,那么Replication Controller会替换它

如果之前不响应的Pod恢复了,现在就有4个Pod了,那么Replication Controller会将其中一个终止保持总数为3。如果在运行中将副本总数改为5,
Replication Controller会立刻启动2个新Pod,保证总数为5。还可以按照这样的方式缩小Pod,这个特性在执行滚动升级时很有用。

当创建Replication Controller时,需要指定两个东西:
1. Pod模板:用来创建Pod副本的模板
2. Label:Replication Controller需要监控的Pod的标签。

现在已经创建了Pod的一些副本,那么在这些副本上如何均衡负载呢?我们需要的是Service。

Deployment

deployment(中文意思为部署、调度)提供了一种更加简单的更新RC和Pod的机制,K8S版本1.2实现的。通过在Deployment中描述所期望的集群状态,Deployment Controller会将现在的集群状态在一个可控的速度下逐步更新成所期望的集群状态。Deployment主要职责同样是为了保证pod的数量和健康,90%的功能与RC完全一样,可以看做新一代的RC

Deployment集成了上线部署、滚动升级、创建副本、暂停上线任务,恢复上线任务,回滚到以前某一版本(成功/稳定)的Deployment等功能,在某种程度上,Deployment可以实现无人值守的上线,大大降低上线过程的复杂沟通、操作风险。

功能:
RC全部功能:Deployment继承了RC全部功能。
事件和状态查看:可以查看Deployment的升级详细进度和状态。
回滚:当升级pod镜像或者相关参数时发现问题,可以使用回滚操作回滚到上一个稳定的版本或者指定的版本。
版本记录:每次对Deployment的操作,都能保存下来,给予后续可能的回滚使用。
暂停和启动:对于每一次升级,都能够随时暂停和启动。
多种升级方案:Recreate–删除所有已存在的pod,重新创建新的; RollingUpdate–滚动升级,逐步替换的策略,同时滚动升级时,支持更多的附加参数,例如设置最大不可用pod数量,最小升级间隔时间等等。

 使用场景:
    使用Deployment来启动(上线/部署)一个Pod或者RS
     检查一个Deployment是否成功执行
     更新Deployment来重新创建相应的Pods(例如,需要使用一个新的Image)
     如果现有的Deployment不稳定,那么回滚到一个早期的稳定的Deployment版本
     暂停或者恢复一个Deployment         

与RC比较,deployment的优势
     Deployment使用了RS,它是更高一层的概念。
     RC只支持基于等式的selector(env=dev或environment!=qa),但RS还支持新的,基于集合的selector(version in (v1.0, v2.0)或env notin (dev, qa)),这对复杂的运维管理很方便。
     使用Deployment升级Pod,只需要定义Pod的最终状态,K8S会为你执行必要的操作,虽然能够使用命令kubectl  rolling-update完成升级,但它是在客户端与服务端多次交互控制RC完成的,所以REST  API中并没有rolling-update的接口,这为定制自己的管理系统带来了一些麻烦。
     Deployment拥有更加灵活强大的升级、回滚功能。

Service

如果Pods是短暂的,那么重启时IP地址可能会改变,怎么才能从前端容器正确可靠地指向后台容器呢?

Service是定义一系列Pod以及访问这些Pod的策略的一层抽象。Service通过Label找到Pod组。

因为Service是抽象的,所以在图表里通常看不到它们的存在,这也就让这一概念更难以理解。

现在,假定有2个后台Pod,并且定义后台Service的名称为’backend-service’,lable选择器为(tier=backend, app=myapp)。
backend-service 的Service会完成如下两件重要的事情:
• 会为Service创建一个本地集群的DNS入口,因此前端Pod只需要DNS查找主机名为 ‘backend-service’,就能够解析出前端应用程序可用的IP地址。
• 现在前端已经得到了后台服务的IP地址,但是它应该访问2个后台Pod的哪一个呢?
Service在这2个后台Pod之间提供透明的负载均衡,会将请求分发给其中的任意一个。通过每个Node上运行的代理(kube-proxy)完成。

有一个特别类型的Kubernetes Service,称为’LoadBalancer’,作为外部负载均衡器使用,在一定数量的Pod之间均衡流量。对于负载均衡Web流量很有用。

外部系统访问Service的问题
首先需要弄明白Kubernetes的三种IP这个问题
• Node IP:Node节点的IP地址
• Pod IP: Pod的IP地址
• Cluster IP:Service的IP地址
Node IP是Kubernetes集群中节点的物理网卡IP地址,所有属于这个网络的服务器之间都能通过这个网络直接通信。
这也表明Kubernetes集群之外的节点访问Kubernetes集群之内的某个节点或者TCP/IP服务的时候,必须通过Node IP进行通信
Pod IP是每个Pod的IP地址,他是Docker Engine根据docker0网桥的IP地址段进行分配的,通常是一个虚拟的二层网络。
Cluster IP是一个虚拟的IP,但更像是一个伪造的IP网络,原因有以下几点:
• Cluster IP仅仅作用于Kubernetes Service这个对象,并由Kubernetes管理和分配P地址
• Cluster IP无法被ping,他没有一个"实体网络对象"来响应
• Cluster IP只能结合Service Port组成一个具体的通信端口,单独的Cluster IP不具备通信的基础,并且他们属于Kubernetes集群这样一个封闭的空间。
Kubernetes集群之内,Node IP网、Pod IP网与Cluster IP网之间的通信,采用的是Kubernetes自己设计的一种编程方式的特殊路由规则。

Reference

  1. Kubernets 权威指南
  2. 学习视频:https://www.bilibili.com/video/BV13Q4y1C7hS?p=26&spm_id_from=pageDriver&vd_source=0bf662c33adfc181186b04ba57e11dff
  3. 附带笔记:https://www.yuque.com/leifengyang/oncloud/kgheaf
  4. 课堂笔记
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值