部署方式的演进过程
传统部署
直接将应用程序部署在物理机器上,很难合理分配计算机资源,而且程序之间会产生影响
虚拟化部署
可以在一台物理机上运行多个虚拟机,没个虚拟机都是独立的一个环境,程序环境不会产生影响,提供了一定程度的安全性,但也增加了操作系统,浪费了部分资源
容器化部署
可以保证每个容器拥有自己的文件系统、cpu、内存、进程空间等,运行所需要的资源都被容器包装,并和底层基础架构解耦(共享操作系统底层),容器化部署可以跨云服务商、跨linux系统发行版本进行部署
容器编排问题
在运行中:
一个容器因故障停机了,怎么样让另一个容器立刻启动去替补停机的容器
当并发突然增大,怎样横向扩展数量,当并发数量下降,如何减少数量
这些问题统称为容器编排问题,就产生了一些容器编排的软件:
- Swam:Docker自己的容器编排工具
- Mesos:Apache的一个资源管控工具,需要和Marathon结合使用
- kubernetes:Google的开源编排工具
kubernetes介绍
kubernetes本质是一组服务器集群,它可以在集群的每个节点上运行特定的程序,并对节点中的容器进行管理,主要目的就是实现资源管理的自动化
kubernetes主要概念
- Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控
- Node:工作负载节点,由mater分配容器到这些node工作节点上,然后node节点上的docker负责容器的运行
- Pod:kubernetes的最小控制单元,容器都是运行在pod中的,一个pod中可以有一个或者多个容器
- Controller: 控制器,通过它来实现对pod的管理,启动pod、停止pod、伸缩pod数量等等
- Service:pod对外服务的统一入口,下面可以维护着同一类的多个pod
- Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签
- NameSpace:命名空间,用来隔离pod的运行环境
kubernetes提供的主要功能
- 自我修复:一旦某一个容器崩溃,能在1s左右迅速启动新的容器
- 弹性伸缩:可以根据需要,自动对集群中正在运行的容器数量进行调整
- 服务发现:服务可以通过自动发现的形式找的它所依赖的服务
- 负载均衡: 如果一个服务启动了多个容器,能够自动实现请求的负载均衡
- 版本回退:如果发现新发布的程序版本有问题,可以力气退回到原来的版本
- 存储编排:可以根据容器自身的需求自动创建存储卷
kubernetes组件
一个kubernetes集群主要是由控制节点(master、工作节点(node)构成,每个节点上都会安装不同的组件
master:集群的控制平面,负责集群的决策(管理)
ApiServer:资源控制操作的唯一入口,接收用户输入的命令,提供认证、授权、api注册和发现等机制
Scheduler:负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上,计算应该是分配到哪个工作节点上
ControllerManager:负责维护集群的状态,比如程序部署安排、故障检测、自从扩展、滚动更新等,Scheduler计算完,由Controller-manager根据计算结果安排在工作节点上运行容器
Etcd:负责存储集群中的各种资源对象的信息,存储所有的信息数据库
node:集群的数据平面,负责为容器提供运行环境 (干活)
Kubelet: 负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器
KubeProxy:负责提供集群内部的服务发现和负载均衡,访问程序通过kubeProxy访问,ApiServer是控制操作的入口
Docker:负责节点上容器的各种操作
kubernetes部署nginx服务各个组件之间的调用关系
- 1、首先要明确,一旦kubenetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中
- 2、一个nginx服务的安装请求会首先被发送到master节点的apiserver组件
- 3、apiserver组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node工作及诶单上
- 4、apiserver调用controller-manager去调度node节点安装nginx服务
- 5、kubelet接收到指令后,会通知docker来启动一个ndinx的pod(pod是kubernetes的最小操作单元,容器必须跑在pod中)
- 6、一个nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问代理,这样,外界的用户就可以访问集群中的nginx服务了