k8s入门你至少需要会哪些

前言

相信很多公司都有集成发布pass系统,底层大多数依赖于k8s来进行服务的发布部署/回滚等功能。对于很多业务开发者都是不可见的,在感叹这个东西真好用的同时,想着探一探这背后的原理。

今天这篇k8s入门我整理了必会的几个k8s知识点,写一个demo应用部署到k8s

•docker的使用,镜像的创建和发布(我当你已经会了哈)•k8s开发环境搭建•Deployment的使用•Service的使用•ConfigMap的使用
真正的入门还是得自己亲手跑起来!

学习环境搭建

首先k8s学习的话是建议用minikube搭建,这里系统我用的ubuntu20.04.2.0LTS

我这里用的是vmware虚拟机, 如果翻墙不顺利的话请加我微信获取已经装好环境的虚拟机(节省你时间不香吗),前提你的机器得是32G内存或以上

假设你自己装了,或者你用了我的vmware虚拟机,或者你用docker Desktop装的k8s,那么启动后

敲命令来启动minikube:

minikube start

耐心等待完成后使用 minikube status 查看状态是否是Running:

然后我们要启动k8s控制面板-dashbord服务,下面的命令里 --url 的意思是启动后,打印dashbord的url。不带的话会启动你本机浏览器打开。

minikube dashboard --url

k8s的控制面板默认的是本机(localhost)才能打开,所以需要使用k8s的proxy功能,到虚拟机的terminal窗口敲入以下命令:


kubectl proxy --port=8001 --address=0.0.0.0 --accept-hosts='^.*'

由于是虚拟机环境,只能是虚拟机所在的机器才能打开 需要做虚拟机端口映射, 本虚拟机的请忽略此步骤!

做了本机端口到虚拟机的端口映射之后,

打开你本机浏览器直接访问虚拟机的k8s的控制面板

注意我上面用的k8s proxy是8001端口,url如下:

http://<本机IP>:8001/api/v1/namespaces/kubernetes-dashboard/services/http:kubernetes-dashboard:/proxy/#/service?namespace=default

打开如下图:

写一个demo应用然后部署到k8s

demo就是一个自带的的天气预报的webapi模板。

然后创建成功后 需要更改一处代码(看注释):


[ApiController]
[Route("[controller]")]
public class WeatherForecastController : ControllerBase
{
    private static readonly string[] Summaries = new[]
    {
        "Freezing", "Bracing", "Chilly", "Cool", "Mild", "Warm", "Balmy", "Hot", "Sweltering", "Scorching"
    };

    private readonly ILogger<WeatherForecastController> _logger;
    public WeatherForecastController(ILogger<WeatherForecastController> logger)
    {
        _logger = logger;
    }

    [HttpGet]
    public IEnumerable<WeatherForecast> Get()
    {
        //这里加下获取本机ip,因为到时候部署到k8s我们得确认是不是访问的ip会变化
        var feature = HttpContext.Features.Get<IHttpConnectionFeature>();
        string LocalIPAddr = feature?.LocalIpAddress?.ToString() ?? "unknow";

        var rng = new Random();
        return Enumerable.Range(1, 5).Select(index => new WeatherForecast
        {
            Date = DateTime.Now.AddDays(index),
            TemperatureC = rng.Next(-20, 55),
            //到时候候我们确认这个字段即可
            Summary = LocalIPAddr
        })
        .ToArray();
    }
}


然后把这个demo应用创建一个镜像并推送到dockerhub仓库,

这里我使用我的开源工具AntDeploy来一键推送(不装docker环境也能做镜像)。

这个工具使用教程可以查看我之前写的

[开源]制作docker镜像不依赖linux和Docker环境

工具的背后原理可以查看:

Docker镜像构建原理解析(不装docker也能构建镜像)

我把这个demo传到了dokcerHub镜像的地址:nainaigu/k8s-demo:1.8

1. Deployment的使用

Deployment的作用是定义及管理多副本应用(即多个副本 Pod)

如果Pod出现故障,对应的服务也会挂掉,所以Kubernetes提供了一个Deployment的
目的是让Kubernetes去管理一组Pod的副本,也就是副本集,
这样就能够保证一定数量的副本一直可用,不会因为某一个Pod挂掉导致整个服务挂掉。

编写Deployment的yml文件(看注释)


apiVersion: apps/v1 //指定版本,支持的版本可以通过kubectl api-versions查询
kind: Deployment //固定 指定类型,这一次我们要创建一个Deployment
metadata: #元数据
  name: k8s-demo //delpoyment的名称,必须在deployment中保持唯一
  labels:
    name: k8s-demo //反正所有标签都一个名字
spec: //deployment的详细内容
  replicas: 2 //容器2个副本pod
  selector: //选择器
    matchLabels:
        name: k8s-demo //选择label中的name=k8s-demo的
  template:
    metadata:
      labels:
        name: k8s-demo //指定一个label名为name,值为k8s-demo,对应上面的selector
    spec:
      containers:
        - name: k8s-demo //容器名
          image: nainaigu/k8s-demo:1.8 //镜像地址
          imagePullPolicy: IfNotPresent //如果本地没有镜像就去仓库pull
          ports:
            - containerPort: 5000 //容器暴露的端口 
          env: //环境变量
            - name: "ASPNETCORE_URLS"
              value: "http://0.0.0.0:5000" 

上面的配置的意思就是:

•从镜像仓库拉取你的镜像•配置你的镜像启动的参数,暴露的端口等•给你这个服务起个名字并且打上标签,执行后会有2个pod(服务实例)

接下来把这个配置保存为k8s-demo.yml 上传到虚拟机然后敲命令装配到k8s

//创建
kubectl create -f k8s-demo.yaml 

//查看,后面想看某个pod的启动日志 也需要先找到pod名称
kubectl get pod -l name=k8s-demo

然后在k8s面板上查看

2. Service的使用和创建

k8s Service定义了这样一种抽象:Service是一种可以访问 Pod逻辑分组的策略, Service通常是通过 Label Selector访问 Pod组(等下在写service的yml文件就能看出来了)

Service的出现,可以解决每次Deployment的时候ip会换的问题

不过Service只支持4层的负载均衡,不支持7层(k8s是用Ingress来支持7层)。

当Pod宕机后重新生成时,其IP等状态信息可能会变动,
Service会根据Pod的Label对这些状态信息进行监控和变更,保证上游服务不受Pod的变动而影响

Service在 K8s中有常见的以下几种类型:

•ClusterIp <只能是集群内部访问,可以通过proxy让外部访问>•NodePort <NodePort来暴露服务让外部访问>•LoadBalancer <生产环境一般都是使用LoadBalancer的方式>


apiVersion: v1
kind: Service
metadata:
  name: k8s-demo
spec:
  selector: //筛选pod。上面创建Deployment的时候指定了
    name: k8s-demo
  type: ClusterIP  //只能k8s集群内部访问,外部网络不能够访问到
  ports:
  - protocol: TCP
    port: 5000   //k8s集群内部通过 5000 端口来访问 下面的
    targetPort: 5000 //容器暴露端口,与Dockerfile暴露端口保持一致


上面的Service配置表示:

•创建了一个名叫k8s-demo的Service•用来访问上面我们Deployment创建的一组name=k8s-demo的Pods•不管你Deployment后面是重新发布还是扩容还是缩容,不管怎么变化,只要通过Service暴露的端口就能负载均衡的访问到那一组 Pods•我们设置的类型是ClusterIP,默认是k8s集群内部可访问,但是也可以通过k8s的proxy功能来访问

如果是NodePort(可以集群外访问)的话要需要按照如下规则来配置


apiVersion: v1
kind: Service
metadata:
  name: k8s-demo
spec:
  selector: //筛选pod。上面创建Deployment的时候指定了
    name: k8s-demo
  type: NodePort //配置为NodePort,外部可以访问,要定义下面的nodePort参数
  ports:
  - protocol: TCP
    port: 5000   //k8s集群内部通过 5000 端口来访问 下面的
    targetPort: 5000 //容器暴露端口,与Dockerfile暴露端口保持一致
    nodePort: 30001 // NodePort,外部访问的端口来访问上面的targetPort



总结这2种的区别就是:

集群内 serviceip:容器端口。集群外:  宿主机IP:nodePort端口

我们按照第一种方式(type: ClusterIP)测试

查看下service的ip:10.105.108.92

由于是集群内部才能访问,所以先用下面的命令进入minikube搭建的k8s集群内部环境


minikube ssh

curl http://10.105.108.92:5000/WeatherForecast

访问服务成功!!

在外部网络可以使用k8s的proxy来访问


http://10.32.104.164:8001/api/v1/namespaces/default/services/k8s-demo:5000/proxy/WeatherForecast

注意通过proxy访问的url拼接的规范:

•k8s-demo:5000 代表你创建的service的名称和端口•/WeatherForecast 代表你服务暴露的接口

ConfigMap的使用

ConfigMap 就是为了让镜像 和 配置文件解耦。好比一个动态的数据源,你创建后可以在 创建Deployment的时候指定用它。然后你想要动态更新,容器内也能监听到文件内容更改,进行热重载!

k8s的另外一个类似的功能叫secret,Secret类似于ConfigMap,是用Base64加密,密文显示,一般存放敏感数据!

下面创建一个appsettings.json的configMap


apiVersion: v1
kind: ConfigMap
metadata:
  name: appsettings
data:
  appsettings.json: |-
    {
      "Logging": {
        "LogLevel": {
          "Default": "Information",
          "Microsoft": "Warning",
          "Microsoft.Hosting.Lifetime": "Information"
        }
      },
      "AllowedHosts": "*",
      "Settings": {
        "Message": "The configuration is working!" 
      } 
    }

然后改下demo应用

这里单独搞了一个Settings的目录来保存配置文件。

然后在api里面读出来配置的Settings.Message信息

这里注意有一个坑 :netcore中的默认的机制是监听配置文件的lastChangetime, 但是configMap变更后居然不会有任何变化(因为它是符号连接(symbolic link)),所以需要自己写一个watch来适配,详细可以看demo中的代码!

下面来测试下效果:

第一步:把configMap创建到k8s中

第二步:先删除掉上面创建的Deployment和Service

第三步:在Deployment的配置中用configMap

第四步:重新创建Deployment和Service

以上四步可以一次性搞定, k8s的yml可以把Deployment和Service和configMap全放在一个yml文件:


apiVersion: apps/v1
kind: Deployment
metadata:
  name: k8s-demo
  labels:
    name: k8s-demo
spec:
  replicas: 2
  selector:
    matchLabels:
        name: k8s-demo
  template:
    metadata:
      labels:
        name: k8s-demo
    spec:
      containers:
        - name: k8s-demo
          image: nainaigu/k8s-demo:1.8
          imagePullPolicy: IfNotPresent
          ports:
            - containerPort: 5000
          env:
            - name: "ASPNETCORE_URLS"
              value: "http://0.0.0.0:5000"
          volumeMounts:
            - name: appsettings-volume 
              mountPath: "/publish/Settings" //这里用configMap
      volumes:
        - name: appsettings-volume
          configMap:
            name: appsettings   //这里用configMap


---

apiVersion: v1
kind: Service
metadata:
  name: k8s-demo
spec:
  selector:
    name: k8s-demo
  type: ClusterIP
  ports:
  - protocol: TCP
    port: 5000
    targetPort: 5000


---

apiVersion: v1
kind: ConfigMap
metadata:
  name: appsettings
data:
  appsettings.json: |-
    {
      "Logging": {
        "LogLevel": {
          "Default": "Information",
          "Microsoft": "Warning",
          "Microsoft.Hosting.Lifetime": "Information"
        }
      },
      "AllowedHosts": "*",
      "Settings": {
        "Message": "The configuration is working!" 
      } 
    }

如上图,一个yml创建了configMap,Service,Deployment。

创建完成后,看下k8s面板:

通过proxy访问下我们的demo服务:

由于我们在Deployment指定replicas:2个pod,访问服务会负载均衡,ip会切换。

配置读取的configmap信息是默认的 “The configuration is working!”

下面我们动态修改下configMap,来测试下demo应用会不会重新加载!

然后在来访问下demo服务

确实加载到了新的配置了!

补充一些常用的命令:

查看部署的历史记录:

kubectl rollout history deployment.apps/k8s-demo

回滚 :kubectl rollout undo 比如回滚到上一个:

kubectl rollout undo deploy/k8s-demo

回滚到指定的版本:

kubectl rollout undo deploy/k8s-demo --to-revision=2 

指定的版本可以通过历史记录的Revision字段

扩缩容kubectl scale

kubectl scale deployment k8s-demo --replicas=2

也可以在面板上操作

把2个实例 扩容到3个实例:

也可以设置达到某个条件自动扩容:

kubectl autoscale deployment k8s-demo --min=10 --max=20 --cpu-precent=70

代表最低10个实例,一旦cpu超过70% 自动触发扩容 最大扩容到20个实例

查看Deployment的容器启动日志 kubectl logs

demo应用的源码:https://github.com/yuzd/envoytest


我在学习envoy的filter开发,有经验的老鸟请带带我,有一起学的朋友欢迎加我微信交流。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值