【Kubernetes】Kubernetes之kubectl详解


一、陈述式资源管理

1. 陈述式资源管理方法

  • kubernetes 集群管理集群资源的唯一入口是通过相应的方法调用 apiserver 的接口;
  • kubectl 是官方的CLI命令行工具,用于与 apiserver 进行通信,将用户在命令行输入的命令,组织并转化为 apiserver 能识别的信息,进而实现管理 k8s 各种资源的一种有效途径;
  • kubectl 的命令大全:
kubectl --help
k8s中文文档:http://docs.kubernetes.org.cn/683.html

在这里插入图片描述

  • 对资源的增、删、查操作比较方便,但对改的操作就不容易了
#查看版本信息/
kubectl version

#查看资源对象简写
kubectl api-resources

#查看集群信息
kubectl cluster-info

#配置kubectl自动补全,此命令只在当前命令界面生效,如果想要永久生效可以在.bashrc或者/etc/bashrc文件中添加
source <(kubectl completion bash)

#node节点查看日志
journalctl -u kubelet -f

在这里插入图片描述

2. 基本信息查看

#获取资源的相关信息
kubectl get <resource> [-o wide|json|yaml] [-n namespace]	

--------------------------------------------------------------
#-n 指定命令空间,-o 指定输出格式
#resource可以是具体资源名称,如pod nginx-xxx;也可以是资源类型,如pod;或者all(仅展示几种核心资源,并不完整)
#--all-namespaces 或 -A :表示显示所有命名空间
#--show-labels :显示所有标签
#-l app :仅显示标签为app的资源
#-l app=nginx :仅显示包含app标签,且值为nginx的资源
#查看 master 节点状态
kubectl get componentstatuses
kubectl get cs

#查看命名空间
kubectl get namespace
kubectl get ns
#命令空间的作用:用于允许不同 命名空间 的 相同类型 的资源 重名的,即在同一个命名空间下不能有同名的资源

在这里插入图片描述

#指定查看kubernetes-dashboard命名空间下下的资源
kubectl get -n kubernetes-dashboard svc

#查看kubernetes-dashboard命名空间的所有资源
kubectl get all -n kubernetes-dashboard

#查看kubernetes-dashboard命名空间下资源 信息
kubectl get -n kubernetes-dashboard pods -o wide

在这里插入图片描述

#根据标签查看kubernetes-dashboard命名空间下资源信息
kubectl get pods -A -l app=flannel

#查看只包含k8s-app键值对的资源信息
kubectl get pods -A -l k8s-app

#指定查看某个键值对的资源信息
kubectl get pods -A -l k8s-app=kubernetes-dashboard --show-labels

在这里插入图片描述

#创建命名空间app
kubectl create ns app
kubectl get ns

#删除命名空间app
kubectl delete namespace app
kubectl get ns			

#在命名空间kube-public 创建副本控制器(deployment)来启动Pod(nginx-test)
kubectl create deployment nginx-test --image=nginx  -n kube-public

在这里插入图片描述

#描述某个资源的详细信息
kubectl describe deployment nginx-test -n kube-public
kubectl describe pod -n kube-public nginx-test-795d659f45-pvdx9

在这里插入图片描述

#查看命名空间kube-public 中的pod 信息
kubectl get pods -n kube-public
NAME                          READY   STATUS    RESTARTS   AGE
nginx-test-795d659f45-pvdx9   1/1     Running   0          11m

#kubectl exec可以跨主机登录容器,docker exec 只能在容器所在主机上登录
kubectl exec -it nginx-test-795d659f45-pvdx9 bash -n kube-public

在这里插入图片描述

#删除(重启)pod资源,由于存在deployment/rc之类的副本控制器,删除pod也会重新拉起来
kubectl delete pod  nginx-test-795d659f45-pvdx9 -n kube-public

#若pod无法删除,总是处于terminate状态,则要强行删除pod
kubectl delete pod <pod-name> -n <namespace> --force --grace-period=0
#grace-period表示过渡存活期,默认30s,在删除pod之前允许pod慢慢终止其上的容器进程,从而优雅退出,0表示立即终止pod

在这里插入图片描述

#扩缩容
kubectl scale deployment nginx-test --replicas=2 -n kube-public	# 扩容
kubectl scale deployment nginx-test --replicas=1 -n kube-public	# 缩容

在这里插入图片描述

#删除副本控制器
kubectl delete deployment nginx-test -n kube-public
kubectl delete deployment/nginx-test -n kube-public

在这里插入图片描述

3. 项目周期管理

项目的生命周期:创建–>发布–>更新–>回滚–>删除

3.1 创建 kubectl create 命令

创建并运行一个或多个容器镜像。

创建一个 deployment 或 job 来管理容器。

#启动 nginx 实例,暴露容器端口 80,设置副本数 3
kubectl create deployment nginx --image=nginx:1.14 --port=80 --replicas=3

kubectl get pods
kubectl get all

在这里插入图片描述

3.2 发布 kubectl expose命令

将资源暴露为新的 Service。

kubectl expose --help

#为deployment的nginx创建service,并通过Service的80端口转发至容器的80端口上,Service的名称为nginx-service,类型为NodePort
kubectl expose deployment nginx --port=80 --target-port=80 --name=nginx-service --type=NodePort

------------------------------------------------------------------------------------------
Kubernetes 之所以需要 Service,一方面是因为 Pod 的 IP 不是固定的(Pod可能会重建),另一方面则是因为一组 Pod 实例之间总会有负载均衡的需求。
Service 通过 Label Selector 实现的对一组的 Pod 的访问。
对于容器应用而言,Kubernetes 提供了基于 VIP(虚拟IP) 的网桥的方式访问 Service,再由 Service 重定向到相应的 Pod。
service 的 type 类型功能
ClusterIP提供一个集群内部的虚拟IP以供Pod访问(service默认类型)
NodePort在每个Node上打开一个端口以供外部访问,Kubernetes将会在每个Node上打开一个端口并且每个Node的端口都是一样的,通过 NodeIp:NodePort 的方式Kubernetes集群外部的程序可以访问Service。
每个端口只能是一种服务,默认端口范围只能是 30000-32767。
LoadBalance使用外接负载均衡器完成到服务的负载分发,注意此模式需要外部云环境支持。借助第三方的云负载均衡器,将请求分发到所有的Node上,其底层还是NodePort
LoadBalancer和NodePort很相似,目的都是向外部暴露一个端口,区别在于LoadBalancer会在集群的外部再来做一个负载均衡设备,而这个设备需要外部环境支持的,外部服务发送到这个设备上的请求,会被设备负载之后转发到集群中。
externalName将service名称映射到一个DNS域名上,相当于DNS服务的CNAME记录,用于让Pod去访问集群外部的资源,它本身没有绑定任何的资源。

在这里插入图片描述

#查看pod网络状态详细信息和 Service暴露的端口
kubectl get pods,svc -o wide
NAME                        READY   STATUS    RESTARTS   AGE     IP           NODE     NOMINATED NODE   READINESS GATES
pod/nginx-d9d8cf5c7-kfgh5   1/1     Running   0          9m41s   10.244.2.5   node02   <none>           <none>
pod/nginx-d9d8cf5c7-pjjg4   1/1     Running   0          9m41s   10.244.1.4   node01   <none>           <none>
pod/nginx-d9d8cf5c7-w4rzc   1/1     Running   0          9m41s   10.244.1.5   node01   <none>           <none>

NAME                    TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)        AGE     SELECTOR
service/kubernetes      ClusterIP   10.96.0.1      <none>        443/TCP        5h20m   <none>
service/nginx-service   NodePort    10.96.221.68   <none>        80:31233/TCP   3m29s   app=nginx

在这里插入图片描述

#查看关联后端的节点
kubectl get endpoints

#查看 service 的描述信息
kubectl describe svc nginx

在这里插入图片描述

#在 node01 节点上操作,查看负载均衡端口
yum install ipvsadm -y
ipvsadm -Ln
#外部访问的IP和端口
TCP  192.168.145.12:31233 rr
  -> 10.244.1.4:80                Masq    1      0          0         
  -> 10.244.1.5:80                Masq    1      0          0         
  -> 10.244.2.5:80                Masq    1      0          0             
#pod集群组内部访问的IP和端口
TCP  10.96.221.68:80 rr
  -> 10.244.1.4:80                Masq    1      0          0         
  -> 10.244.1.5:80                Masq    1      0          0         
  -> 10.244.2.5:80                Masq    1      0          0        
  
#在 node02 节点上操作,同样方式查看负载均衡端口
yum install ipvsadm -y
ipvsadm -Ln
TCP  192.168.145.13:31233 rr
  -> 10.244.1.4:80                Masq    1      0          0         
  -> 10.244.1.5:80                Masq    1      0          0         
  -> 10.244.2.5:80                Masq    1      0          0              
 
TCP  10.96.221.68:80 rr
  -> 10.244.1.4:80                Masq    1      0          0         
  -> 10.244.1.5:80                Masq    1      0          0         
  -> 10.244.2.5:80                Masq    1      0          0       

在这里插入图片描述

在这里插入图片描述

curl 10.96.221.68
curl 192.168.145.11:6443 
#在master01操作 查看访问日志
kubectl logs nginx-d9d8cf5c7-kfgh5
kubectl logs nginx-d9d8cf5c7-pjjg4
kubectl logs nginx-d9d8cf5c7-w4rzc 

在这里插入图片描述

在这里插入图片描述

3.3 更新 kubectl set

更改现有应用资源一些信息。

kubectl set --help

#获取修改模板
kubectl set image --help
Examples:
  # Set a deployment's nginx container image to 'nginx:1.9.1', and its busybox container image to 'busybox'.
  kubectl set image deployment/nginx busybox=busybox nginx=nginx:1.9.1

#查看当前 nginx 的版本号
curl -I http://192.168.145.11:31233
curl -I http://192.168.145.12:31223

#将nginx 版本更新为 1.15 版本
kubectl set image deployment/nginx nginx=nginx:1.15

#处于动态监听 pod 状态,由于使用的是滚动更新方式,所以会先生成一个新的pod,然后删除一个旧的pod,往后依次类推
kubectl get pods -w
---------------------------------------------------------------------------------------------
#滚动更新详解:
kubectl get all
DESIRED:表示期望的状态是 10 个 READY 的副本
CURRENT:表示当前副本的总数: 即8 个日副本 + 5 个新副本
UP_TO-DATE:表示当前已经完成更新的副本数: 即 5个新副本
AVAILABLE:表示当前处于 READY 状态的副本数: 即8个日副本。

kubectl describe deployment/nginx
滚动更新通过参数 maxSurge 和 maxUnavailable 来控制副本替换的数量
maxSurge:此参数控制滚动更新过程中副本总数的超过 DESIRED 的上限。maxSurge 可以是具体的整数(比如 3),也可以是百分百,向上取整。maxSurge 默认值为 25%。
例如,DESIRED 为 10,那么副本总数的最大值为 10 + 10 * 25% = 13,即 CURRENT13。

maxUnavailable:此参数控制滚动更新过程中,不可用的副本相占 DESIRED 的最大比例。maxUnavailable 可以是具体的整数(比如 3),也可以是百分百,向下取整。 maxUnavailable 默认值为 25%。
例如,DESIRED 为 10,那么可用的副本数至少要为 10 - 10 * 25% = 8,即 AVAILABLE 为 8。

因此 maxSurge 值越大,初始创建的新副本数量就越多;maxUnavailable 值越大,初始销毁的旧副本数量就越多。

理想情况下,DESIRED 为 10 的滚动更新的过程应该是这样的:
首先创建 3 个新副本使副本总数达到 13 个。
然后销毁 2 个旧副本使可用的副本数降到 8 个。
当这 2 个旧副本成功销毁后,可再创建 2 个新副本,使副本总数保持为 13 个。
当新副本通过 Readiness 探测后,会使可用副本数增加,超过 8。
进而可以继续销毁更多的旧副本,使可用副本数回到 8。
旧副本的销毁使副本总数低于 13,这样就允许创建更多的新副本。
这个过程会持续进行,最终所有的旧副本都会被新副本替换,滚动更新完成。
---------------------------------------------------------------------------------------------

在这里插入图片描述

#再看更新好后的 Pod 的 ip 会改变
kubectl get pods -o wide

#再看 nginx 的版本号
curl -I http://192.168.145.11:30574
curl -I http://192.168.145.12:30574

在这里插入图片描述

3.4 回滚 kubectl rollout

对资源进行回滚管理

#查看历史版本
kubectl rollout history deployment/nginx  

#执行回滚到上一个版本
kubectl rollout undo deployment/nginx

#执行回滚到指定版本
kubectl rollout undo deployment/nginx --to-revision=1

#检查回滚状态
kubectl rollout status deployment/nginx

在这里插入图片描述

3.5 删除 kubectl delete

#删除副本控制器
kubectl delete deployment/nginx

#删除service
kubectl delete svc/nginx-service

kubectl get all

在这里插入图片描述

4. kubectl 的发布策略

4.1 蓝绿发布

  概念定义:蓝绿发布是一种以最小的停机时间做服务升级的策略。需要维护的两个版本的环境分别称为 “蓝环境” 和 “绿环境”。一般当前生产流量指向环境为绿环境,而在蓝环境上部署新版本,短时间内作为测试环境。

  发布流程:首先将一半的服务流量从负载均衡列表中移除,并且更新服务版本,验证新版本没有问题后,将生产流量指向蓝环境,然后对于老版本的绿环境进行版本升级,最后将所有服务流量加回负载均衡。

  特点

  • 升级过程无需停机,用户感知小
  • 升级过程一半资源提供服务
  • 升级/回滚速度快
  • 如果出了问题,影响面较广

4.2 红黑发布

  概念定义:与蓝绿发布类似,红黑发布也是通过两个环境完成软件版本的升级,将当前生产流量指向的环境称为红环境,新版本环境称为黑环境。

  发布流程:需申请新资源用于部署黑环境,在黑环境部署新版本的服务;黑环境部署完成后,一次性将生产流量指向黑环境;释放红环境的资源。

  特点

  • 升级过程无需停机,用户感知小
  • 短时间内需要使用双倍资源

  与蓝绿发布相比,红黑发布充分利用了云计算的弹性伸缩的优势,实现:

  • 简化发布流程
  • 避免在升级的过程中,由于只有一半资源提供服务,而导致的系统过载问题

4.3 灰度发布(金丝雀发布)

  Deployment控制器支持自定义控制更新过程中的滚动节奏,如“暂停(pause)”或“继续(resume)”更新操作。比如等待第一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布。

  (1)更新deployment的版本,并配置暂停deployment

kubectl set image deployment/nginx nginx=nginx:1.14 && kubectl rollout pause deployment/nginx

kubectl rollout status deployment/nginx  #观察更新状态

  (2)监控更新的过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令

kubectl get pods -w 

curl [-I] 10.0.0.189
curl [-I] 192.168.145.11:44847

  (3)确保更新的pod没问题了,继续更新

kubectl rollout resume deployment/nginx

  (4)查看最后的更新情况

kubectl get pods -w 

curl [-I] 10.0.0.189
curl [-I] 192.168.145.11:44847

4.4 滚动发布

  在金丝雀发布基础上的进一步优化改进,是一种自动化程度较高的发布方式,用户体验比较平滑,是目前成熟型技术组织所采用的主流发布方式。

二、声明式资源管理

1. 声明式管理方法

  • 适合于对资源的修改操作
  • 声明式资源管理方法依赖于资源配置清单文件对资源进行管理
资源配置清单文件有两种格式:yaml(人性化,易读),json(易于api接口解析)
  • 对资源的管理,是通过事先定义在统一资源配置清单内,再通过陈述式命令应用到k8s集群里

  • 语法格式:kubectl create/apply/delete -f xxxx.yaml

2. 资源管理

#查看资源配置清单
kubectl get deployment nginx -o yaml

在这里插入图片描述

#解释资源配置清单
kubectl explain deployment.metadata

kubectl get service nginx -o yaml
kubectl explain service.metadata

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

#修改资源配置清单并应用
离线修改:
修改yaml文件,并用 kubectl apply -f xxxx.yaml 文件使之生效
注意:当apply不生效时,先使用delete清除资源,再apply创建资源

kubectl get service nginx -o yaml > nginx-svc.yaml
vim nginx-svc.yaml				#修改port: 8080
kubectl delete -f nginx-svc.yaml
kubectl apply -f nginx-svc.yaml
kubectl get svc

在线修改:
直接使用 kubectl edit service nginx 在线编辑资源配置清单并保存退出即时生效(如port: 888#PS:此修改方式不会对yaml文件内容修改

在这里插入图片描述

在这里插入图片描述

#删除资源配置清单
陈述式删除:
kubectl delete service nginx

声明式删除:
kubectl delete -f nginx-svc.yaml

在这里插入图片描述

总结

1. k8s 资源管理方式

#陈述式资源管理
kubectl create <资源类型> <资源名称> -n 命名空间  [选项]
                                                  --image=镜像  --replicas=副本数  --port=容器端口

kubectl get <资源类型|all> [资源名称] -n 命名空间 -o wide|yaml|json  -w

kubectl describe <资源类型> <资源名称> -n 命名空间

kubectl delete  <资源类型> <资源名称>|--all  -n 命名空间  [--force --grace-period=0]
                                                           立即终止Pod运行,强制删除资源

kubectl exec -it -n 命名空间  <Pod资源名称>  [-c 容器名称]  sh|bash

kubectl logs -n 命名空间  <Pod资源名称>  [-c 容器名称] [-p]

kubectl scale -n 命名空间 deployment <资源名称> --replicas=副本数   

kubectl expose -n 命名空间 deployment <资源名称> --name <自定义svc资源名称> --port <clusterIP的端口> --target-port <容器的端口> --type <svc的类型>
kubectl create svc <svc资源类型> <资源名称> --tcp=<clusterIP的端口>:<容器的端口>

kubectl set image deployment <资源名称> <容器名>=<镜像名>

kubectl rollout history deployment <资源名称>
kubectl rollout undo deployment <资源名称>  [--to-revision= ]
kubectl rollout status deployment <资源名称>
#声明式资源管理
kubectl apply|create -f XXX.yaml
kubectl delete -f XXXml

kubectl edit <资源类型> <资源名称>

kubectl explain <资源类型>.<字段1>.<字段2>

2. service 的四种类型

ClusterIp		#默认的service资源的类型,提供clusterIP供K8S集群内部访问。
NodePort		#会在每个Node节点上开启一个端口,K8S集群内部和外部的用户可以通过NodeIP:NodePot访问service以及关联的Pod。
LoadBalancer	#使用公有云的LB服务和service做映射,用户可以使用公有云LB服务的IP地址即可将请求转发到Node节点,再通过NodeIP:NodePort访问service以及其关联的Pod。
ExternaName		#相当于给一个域名或IP做别名,Pod可以通过这个service访问相关的外部服务。

3. service 的端口

prot			#service 资源的 clusterIp 所使用的端口
nodePort		#在 NodePort 类型的 service 所定义的,在每个node节点上开启的端口(默认范围30000~32767)
targePort		#service 将 port 或 nodeport 转发到的后端 Pod 的容器端口

containerPort	#创建 Pod 时所指定的容器端口

K8S集群内部 http://clusterIP:port ---> podIP:containerPort
K8S集群外部 http://nodeIP:nodeport ---> podIP:containerPort

4. 应用的发布策略

蓝绿发布
滚动发布
灰度发布/金丝雀发布
kubectl set image deployment <资源名称> <容器名>=<镜像名>  &&  kubectl rollout pause deployment <资源名称>
kubectl rollout resume deployment <资源名称>

25% max unavailable   滚动更新过程中,销毁的Pod数量不超过期望副本数的25%,向下取整
25% max surge         滚动更新过程中,新增的Pod数量不超过期望副本数的25%,向上取整

期望的Pod副本数是10个,销毁的数量2,新增3        整个更新过程中Pod的数量会一致保持在 8 ~ 13
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我的宝贝大唐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值