Kubernetes 容器云实践方案

https://mp.weixin.qq.com/s?__biz=MzIzOTUyMTA4MA==&mid=2247483791&idx=1&sn=aebdf07237eec8596f4462801a230370&chksm=e9299dd8de5e14ceafba4f4c834dac87bee7054179b0810de6237322a45d89008ef34cb53b04&scene=0&xtrack=1&from=groupmessage&ascene=1&devicetype=android-24&version=26070339&nettype=WIFI&abtest_cookie=BQABAAoACwANABIAFAAFACOXHgBZmR4AipkeAJuZHgChmR4AAAA=&lang=zh_CN&pass_ticket=YIugC+tuJXOrDDUOAKLL/1PcoJhtd5K4YyOx53P5a8UtMy2YrBhS19JIGm/jBZRc&wx_header=1

随着社会的进步与技术的发展,人们对资源的高效利用有了更为迫切的需求。近年来,互联网、移动互联网的高速发展与成熟,大应用的微服务化也引起了大企业的热情关注,而基于Kubernetes+Docker的容器云方案也随之进入了大众的视野。开普勒云是一个基于Kubernetes+Docker+Istio的微服务治理解决方案。

Introduce

先简单自我介绍

王聪  宜人贷/技术部/技术创新/高级研发工程师

  • 2013年入职宜人贷

  • 2018年担任容器云项目的项目建设负责人及设计、平台研发等工作

Index

先看一眼目录,我分享的主要内容

  • Microservices

  • Docker & Kubernetes

  • Service Mesh

  • Kubernetes & Istio

  • Kplcloud Platform

Microservices

解决大应用微服务化后的问题

现在各大企业都在谈论微服务,在微服务的大趋势之下技术权里逢人必谈微服务,及微服务化后的各种解决方案。

当我们在讨论微服务的时候我们在讨论什么?

使用微服务架构有很多充分的理由,但天下没有免费的午餐。微服务虽有诸多优势,但也增加了复杂性。团队应该积极应对这种复杂性,但前提是应用能够受益于微服务。

如何微服务化的问题

  • 微服务要如何拆分

  • 业务API规则

  • 数据一致性保证

  • 后期可扩展性考虑

当然这不是本篇主要讨论的问题,我不讲微服务具体要如何拆分,每个企业每个应用的情况都不太一样,适合自己的方案就是最好的拆分方案。我们主要来解决微服务化后所带来的一些问题。

微服务化后带来的问题

  • 环境一致性

  • 如何对资源快速分配

  • 如何快速度部署

  • 怎么做基本监控

  • 服务注册与发现

  • 负载均衡如何做

以上都是大应用微服务化所需要解决的基础问题,如果还按照传统的方式使用虚拟机来实现,资源开支将会非常大。那么再层次的一些问题要怎么解决呢?比如:

  • 流量管理

  • 服务降级

  • 认证、授权

当然面对上面这些问题我们广大的猿友们肯定是有解决方案的。

Service governance

Java 体系

假设我们是Java体系的应用,那解决起来就很方便了,比如我们可以考虑使用SpringCloud全家桶系列。也可以拆分使用:

  • Eureka

  • Hystrix

  • Zuul

  • Spring-cloud

  • Spring-boot

  • ZipKin

Java体系下能很方便的做以我们微服务化后的基础部分,但依然不能非常舒服的解决环境一致性并且如果有其他语系的服务将很难融入进去。

我们看看基础编程语言一般有什么组合方式来解决基础问题。

其他体系

  • Consul

  • Kong

  • Go-kit

  • Jaeger/Zipkin

假设我们是Golang语言,这里再捧一下Golang语言。go语言简直就是天生为微服务而生的语言,实在不要太方便了。高效的开发速度及相当不错的性能,简单精悍。

跑题了,我们使用上面这些工具也可以组成一套还不错的微服务架构

  1. Consul: 当作服务发现及配置中心来使

  2. Kong: 作为服务网关

  3. Jaeger: 作为链路追踪来使

  4. Go-kit: 开发组件

但是这种方案依然也有问题,对服务的侵入性太强了,每个服务都需要嵌入大量代码还是很头疼的。

Docker & Kubernetes

基于Docker+k8s搭建平台的实践方案

Docker

Docker 是一个非常强大的容器

  1. 资源利用率的提升

  2. 环境一致性、可移植性

  3. 快速度扩容伸缩

  4. 版本控制

当我们使用了Docker之后,我们发现可玩的东西变多了,更加灵活了。不仅仅是资源利用率提升、环境一致性得到了保证,我们的版本控制也变得更加方便了。

以前我们使用Jenkins进行构建,当我们需要回滚时,又需要重新走了次jenkins Build过程,这是非常麻烦的。如果是Java应用那么它的构建时间将会变得非常长。

那么我们使用了Docker之后,这一切都变得简单了许多,我们需要把某个版本的镜像拉下来启动就完事了(如果本地有缓存直接启动某个版本就行了),这个提升是非常高效的。

(图片来源网络)

既然都使用了Docker容器作为服务的基础,那肯定我们需要进容器进行编排,如果没有编排那将是非常可怕的。那么在这个时间上,对于Docker容器的编排,我们有了多种选择Docker SwarmApache MesosKubernetes,在这些编排工具上,我们选择了服务编排王者Kubernetes.

Docker VS VM

  • VM: 创建虚拟机需要1分钟,部署环境3分钟,部署代码2分钟

  • Docker: 启动容器30秒内

Why choose Kubernetes

我们来对这三个容器编排工具进行一个对比。

Apache Mesos

Mesos的目的就是建立一个高效可扩展的系统,并且这个系统能够支持很多各种各样的框架,不管是现在的还是未来的框架,它都能支持。这也是现今一个比较大的问题:类似Hadoop和MPI这些框架都是独立开的,这导致想要在框架之间做一些细粒度的分享是不可能的。

但它的基础语言不是Golang,不在我们的技术栈里,我们对它的维护成本将会增高,所以我们首先不考虑它了。

Docker Swarm

Docker Swarm是一个由Docker开发的调度框架。由Docker自身开发的好处之一就是标准Docker API的使用。Swarm的架构由两部分组成

(图片来源网络)

它具体的使用,这里不再具体进行介绍了

Kubernetes

Kubernetes是一个Docker容器的编排系统,它使用label和pod的概念来将容器换分为逻辑单元。Pods是同地协作(co-located)容器的集合,这些容器被共同部署和调度,形成了一个服务,这是Kubernetes和其他两个框架的主要区别。相比于基于相似度的容器调度方式(就像Swarm和Mesos),这个方法简化了对集群的管理.

不仅如此,它还提供了非常丰富的API,方便我们进它进行操作,及玩出更多花样。其实还有一大重点就是符合我们的golang技术栈并且有大厂支持。

Kubernetes 的具体使用这里也不再过多的介绍了,网在上大把资料可以参考。

Kubernetes in kubernetes

kubernetes(k8s)是自动化容器操作的开源平台,这些操作包括部署,调度和节点集群间扩展。

  • 自动化容器的部署和复制

  • 随时扩展或收缩容器规模

  • 将容器组织成组,并且提供容器间的负载均衡

  • 很容易地升级应用程序容器的新版本

  • 提供容器弹性,如果容器失效就替换它,等等...

Kubernetes is not enough either

到这里我们看我们解决了哪些问题:

  • Docker: 环境一致性、快速度部署

  • Kubernetes: 服务注册与发现、负载均衡、对资源快速分配

当然还有监控,这个我们下面再说。我们先来看看我们要实现一些更高层次的问题要怎么办呢?

在不对服务进行侵入性的代码修改的情况下服务认证、链路追踪、日志管理、断路器、流量管理、错误注入等等问题要解决呢?

当然这两年非常流行的一种解决方案 Service Mesh

Service Mesh

处理服务间通信的基础设施层,用于在云原生应用复杂的服务拓扑中实现可靠的请求传递

  • 用来处理服务间通讯的专用基础设施层,通过复杂的拓扑结构让请求传递的过程变得更可靠

  • 作为一组轻量级高性能网络代理,和程序部署在一起,应用程序不需要知道它的存在。

在云原生应用中可靠地传递请求可能非常复杂。 通过一系列强大技术来管理这种复杂性: 链路熔断、延迟感知、负载均衡,服务发现,服务续约及下线与剔除。

市面的下ServiceMesh框架有很多,然后我们选择了站在风口的Istio

Istio

连接、管理和保护微服务的开放平台。

  • 平台支持: Kubernetes, Mesos, Cloud Foundry

  • 可观察性:Metrics, logs, traces, dependency visualisation

  • Service Identity & Security: 为服务、服务到服务的身份验证提供可验证的标识

  • Traffic 管理: 动态控制服务之间的通信、入口/出口路由、故障注入

  • Policy 执行: 前提检查,服务之间的配额管理

我们为什么选择Istio?

因为有大厂支持呀。其实主要还是它的理念是相当好的。

虽然它才到1.0版本,我们是从 0.6 版本开始尝试体验,测试环境跑,然后0.7.1版本出了,我们升级到0.7.1版本跑,后来0.8.0LTS出了,我们开始正式使用0.8.0版本,并且我们做了一套升级方案。

目前最新版已经到了1.0.4, 但我们并不准备升级,我想等到它升级到1.2之后,再开始正式大规模应用。0.8.0LTS至少现在还看小规模还是可以的。

Istio 架构

我们先来看一下Istio的架构。

其中Istio控制面板主要分为三大块,Pilot、Mixer、Istio-Auth

  • Pilot: 主要作为服务发现和路由规则,并且管理着所有Envoy,它对资源的消耗是非常大的

  • Mixer: 主要负责策略请求和配额管理,还有Tracing,所有的请求都会上报到Mixer

  • Istio-Auth: 升级流量、身份验证等等功能,目前我们暂没有启用此功能,对这需求并不是特别大,因为集群本身就是对外部隔离的

每个Pod都会被注入一个Sidecar,你容器里的流量通过iptables全部转到Envoy进行处理。

Kubernetes & Istio

Istio可以独立部署,但显然它与Kuberntes结合是更好的选择。

基于Kubernetes的小规模架构

有人担心它的性能,其实经过我们生产简单的测试 上万的QPS是完全没有问题的。

Kubernetes Cluster

我们看看在资源紧缺的情况下,我们的k8s集群是怎么样的。

首先提Master集群

  • Master Cluster:

    • ETCD、Kube-apiserver、kubelet、Docker、kube-proxy、kube-scheduler、kube-controller-manager、Calico、 keepalived、 IPVS

Node节点

  • Node:

    • Kubelet、 kube-proxy 、Docker、Calico、IPVS

(图片来源网络)

我们所调用的地Master的API都是通过 keepalived 进行管理,一是某一master发生故障,能保证顺滑的飘到其他master的API从而不影响整个集群的运行。

当然我们还配置了两个边缘节点

Edge Node

  • 边缘节点

  • 流量入口

边缘节点的主要功能就是让集群提供对外暴露服务的能力的节点,所以它也不需要稳定,我们的IngressGateway 就是部署在这两个边缘节点上面,并且通过Keeplived进行管理。

外部服务请求流程

最外层是DNS,通过泛解析到Nginx,Nginx将流量转到到集群的VIP,VIP再到集群的HAproxy,将外部流量发到我们的边缘节点的Gateway

每个VirtualService都会绑定到Gateway上,通过VirtualService可以进行服务的负载、限流、故障处理、路由规则及金丝雀部署。

再通过Service最终到我们服务所在的Pods上。

这是在没有进行Mixer跟策略检测的情况下的过程,只使用了Istio-IngressGateway。如果使用全部Istio组件将公有所变化,但主流程是这样的。

Logging

日志收集我们采用的是低耦合,扩展性强,方便维护和升级的方案

  1. 节点Filebeat收集宿主机日志

  2. 每个Pods注入Filebeat容器收集业务日志

Filebeat会跟应用容器部署在一起,应用也不需要知道它的存在,只需要指定日志输入的目录就行了。Filebeat所使用的配置是从ConfigMap读取,只需要维护好收集日志的规则就行了。

上图是我们可以从Kibana上看到所采集到的日志

Prometheus + Kubernetes

  • 基于时间序列的监控系统

  • 与kubernetes无缝集成基础设施和应用等级

  • 具有强大功能的键值数据模型

  • 大厂支持

Grafana

Alarm

目前我们支持的报警有WechatkplcloudEmailIM

所有报警都可在平台上配置发送到各个地方。

整体架构

整个架构由外围服务及集群内的基础服务组成,外围服务有:

  • Consul作为配置中心来使用

  • Prometheus+Grafana用来监控K8s集群

  • Zipkin提供自己定义的链路追踪

  • ELK日志收集、分析,我们集群内的所有日志会推送到这里

  • Gitlab代码仓库

  • Jenkins用来构建代码及打包成Docker镜像并且上传到仓库

  • Repository 镜像仓库

集群有:

  • HAProxy+keeprlived 负责流量转发

  • 网络是Calico, Calico对kube-proxy的ipvs代理模式有beta级支持。如果Calico检测到kube-proxy正在该模式下运行,则会自动激活Calico ipvs支持,所以我们启用了IPVS

  • 集群内部的DNS是 CoreDNS

  • 我们部署了两个网关,主要使用的是Istio的 IngressGateway,TraefikIngress备用。一旦IngressGateway挂了我们可以快速切换到TraefikIngress

  • 上面是Istio的相关组件

  • 最后是我们的APP服务

  • 集群通过Filebeat收集日志发到外部的ES

  • 集群内部的监控有

    • State-Metrics 主要用来自动伸缩的监控组件

    • Mail&Wechat 自研的报警服务

    • Prometheus+Grafana+AlertManager 集群内部的监控,主要监控服务及相关基础组件

    • InfluxDB+Heapster 流数据库存储着所有服务的监控信息

有了Kubernetes那怎么部署应用呢?

  • 研发打包成镜像、传仓库、管理版本

    • 学习Docker

    • 学习配置仓库、手动打包上传麻烦

    • 学习k8s相关知识

  • 用Jenkins来负责打包、传镜像、更新版本

    • 运维工作增加了不少,每个应用都需要进行配置,服务需要做变更都得找运维

    • 需要管理一堆的YAML文件

没有一种傻瓜式的,不需要学习太多的技术就可以方便使用的解决方案?

Kplcloud platform

轻量PaaS平台 一站式解决方案

开普勒云平台

开普勒云平台是一个轻量级的PaaS平台

  • 为微服务化的项目提供一个可控的管理平台

  • 实现每个服务独立部署、维护、扩展

  • 简化流程,不再需要繁琐的申请流程,最大限度的自动化处理

  • 实现微服务的快速发布、独立监控、配置

  • 实现对微服务项目的零侵入式的服务发现、服务网关、链路追踪等功能

  • 提供配置中心,统一管理配置

研发、产品、测试、运维甚至是老板都可以自己发布应用

在开普勒平台部署服务

为了降低学习成本及部署难度,在开普勒平台上部署应用很简单,只需要增加一个Dockerfile 就好了

Dockerfile 参考

以上是普通模式,Jenkins 代码Build及Docker build

这是一种相对自由的部署方式,可以根据自己的需求进行定制,当然有学习成本。

为什么不自动生成Dockerfile呢?

其实完全可以做到自动生成Dockerfile,但每个服务的要求可能不一样,有些需要增加文件,有些在Build时需要增加参数等等。我们不能要求所有的项目都是一样的,这现实会阻碍技术的发展。所以退而求其次,我们给出模版,研发根据自己的需求调整。

工具整合

  • 开普勒云平台整合了 gitlab,Jenkins,repo,k8s,istio,promtheus,email,WeChat 等API

  • 实现对服务的整个生命周期的管理

  • 提供服务管理、创建、发布、版本、监控、报警、日志已及一些周边附加功能,消息中心、配置中心、还能登陆到容器,服务下线等等

  • 可对服务进行 一健调整服务模式、服务类型、一键扩容伸缩,回滚服务API管理以及存储的管理等操作

发布流程

用户把自己的Dockerfile跟代码提交到Gitlab,然后在开普勒云平台填写一些参数创建自己的应用。

应用创建完后会在Jenkins创建一个Job把代码拉取下来并执行Docker build(如果没有选择多阶构建会先执行go build或mvn)再把打包好的Docker image推送的镜像仓库。最后回调平台API或调用k8s通知拉取最新的版本。

用户只需要在开普勒云平台上管理好自己的应用就行,其他的全部自动化处理。

从创建一个服务开始

我们从创建一个服务开始介绍平台。

平台主界面:

点击“创建服务”后进入创建页面

填写基本信息:

填写详细信息:

基本信息以Golang为例,当选择其他语言时所需填写的参数会略有不同。

如果选择了对外提供服务的话,会进入第三步,第三步是填写路由规则,如没有特殊需求直接默认提交就行了。

服务详情

Build 升级应用版本:

调用服务模式,可以普通跟服务网格之间调整。

服务是否提供对外服务的能力:

扩容调整CPU、内存

调整启动的Pod数量

网页版本的终端

定时任务

持久化存储

管理员创建StorageClass跟PersistentVolumeClaim,用户只需要在自己服务选择相关的PVC进行绑写就行了。

存储使用的是NFS.

Tracing

Consul

Consul当作配置中心来使用,并且我们提供Golang的客户端。

$ go get github.com/lattecake/consul-kv-client

它会自动同步consul的目录配置存在内存,获取配置只需要直接从内存拿就行了。

Repository

项目两研发两运维一起完成了这伟大工程,感谢所有团队成员。

谢谢〜

 

您的赞赏是我前进的动力!

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值