kubectl常用指令
- 1、查看集群状态
- 2、创建资源对象
- 3、查看资源对象
- 4、打印容器中日志信息
- 5、在容器中执行命令
- 6、删除资源对象
- 7、更新资源对象replace、set
- 8、将服务暴露出去(创建Service)
- 9、扩容和缩容、自动扩缩容
- 10、查看API版本
- 11、在本地主机上为API Server启动一个代理网关
- 12、当定义资源配置文件时,不知道怎么定义的时候,可以查看某类型资源的配置字段解释
- 13、查看某资源对象的配置文件
- 14、label管理相关命令
- 15、注解管理相关命令
- 16、patch修改Deployment控制器进行控制器升级
- 17、进入pod,查看pod中有几个容器
- 18、查看nginx-ingress-controller所在节点
- 19、升级与回滚
- 20、输出yaml文件
- 21、驱逐node上的pod
学习来源:http://docs.kubernetes.org.cn/468.html
1、查看集群状态
kubectl version --short=true 查看客户端及服务端程序版本信息
kubectl cluster-info 查看集群信息
2、创建资源对象
kubectl run name --image=(镜像名) --replicas=(副本数) --port=(容器要暴露的端口) --labels=(设定自定义标签)
临时启动个Pod:
kubectl run dns-test -it --rm --image=busybox:1.28.4 -- sh
kubectl create -f **.yaml 陈述式对象配置管理方式
kubectl apply -f **.yaml 声明式对象配置管理方式(也适用于更新等)
3、查看资源对象
kubectl get namespace 查看命名空间
kubectl get pods --all-namespaces 查看所有名称空间下的pod
kubectl get pods -A 新版支持,比如v1.18.2
kubectl get pods,services -o wide (-o 输出格式 wide表示plain-text)
kubectl get pod -l "key=value,key=value" -n kube-system (-l 标签选择器(多个的话是与逻辑),-n 指定命名空间,不指定默认default)
kubectl get pod -l "key1 in (val1,val2),!key2" -L key (-l 基于集合的标签选择器, -L查询结果显示标签) 注意:为了避免和shell解释器解析!,必须要为此类表达式使用单引号
kubectl get pod -w(-w 监视资源变动信息)
root@sw6a:~# kubectl get cs 查看集群组件是否健康 (cs:componentstatuses组件状态)
NAME STATUS MESSAGE ERROR
controller-manager Healthy ok
scheduler Healthy ok
etcd-1 Healthy {"health": "true"}
etcd-2 Healthy {"health": "true"}
etcd-0 Healthy {"health": "true"}
kubectl api-resources | grep componentstatuses
4、打印容器中日志信息
kubectl logs name -f -c container_name -n kube-system (-f 持续监控,-c如果pod中只有一个容器不用加)
5、在容器中执行命令
kubectl exec name -c container_name -n kube-system -- 具体命令
kubectl exec -it pod_name /bin/sh 进入容器的交互式shell (exit退出)
6、删除资源对象
kubectl delete [pods/services/deployments/...] name 删除指定资源对象
kubectl delete [pods/services/deployments/...] -l key=value -n kube-system 删除kube-system下指定标签的资源对象
kubectl delete [pods/services/deployments/...] --all -n kube-system 删除kube-system下所有资源对象
kubectl delete [pods/services/deployments/...] source_name --force --grace-period=0 -n kube-system 强制删除Terminating的资源对象
kubectl delete pod PODNAME --force --grace-period=0 -n kube-system 强制删除pod
kubectl delete -f xx.yaml
kubectl apply -f xx.yaml --prune -l <labels>(一般不用这种方式删除)
kubectl delete rs rs_name --cascade=fale(默认删除控制器会同时删除其管控的所有Pod对象,加上cascade=false就只删除rs)
7、更新资源对象replace、set
kubectl replace -f xx.yaml --force(--force 如果需要基于此前的配置文件进行替换,需要加上force)
# 将deployment中的nginx容器镜像设置为“nginx:1.9.1”
$ kubectl set image deployment/nginx busybox=busybox nginx=nginx:1.9.1
# 所有deployment和rc的nginx容器镜像更新为“nginx:1.9.1”
$ kubectl set image deployments,rc nginx=nginx:1.9.1 --all
# 将daemonset abc的所有容器镜像更新为“nginx:1.9.1”
$ kubectl set image daemonset abc *=nginx:1.9.1
# 从本地文件中更新nginx容器镜像
$ kubectl set image -f path/to/file.yaml nginx=nginx:1.9.1 --local -o yaml
8、将服务暴露出去(创建Service)
kubectl expose deployments/deployment_name --type="NodePort" --port=(要暴露的容器端口) --name=(Service对象名字)
9、扩容和缩容、自动扩缩容
kubectl scale deployment/deployment_name --replicas=N
kubectl scale deployment/deployment_name --replicas=N --current-replicas=M 只有当前副本数等于M时才会执行扩容或者缩容
# 设置多个RC中Pod副本数量
$ kubectl scale --replicas=5 rc/foo rc/bar rc/baz
autoscale命令:这个比scale更加强大,也是弹性伸缩策略 ,它是根据流量的多少来自动进行扩展或者缩容。
指定Deployment、ReplicaSet或ReplicationController,并创建已经定义好资源的自动伸缩器。使用自动伸缩器可以根据需要自动增加或减少系统中部署的pod数量。
# 使用 Deployment “foo”设定,使用默认的自动伸缩策略,指定目标CPU使用率,使其Pod数量在2到10之间
$ kubectl autoscale deployment foo --min=2 --max=10
# 使用RC“foo”设定,使其Pod的数量介于1和5之间,CPU使用率维持在80%
$ kubectl autoscale rc foo --max=5 --cpu-percent=80
10、查看API版本
kubectl api-versions
11、在本地主机上为API Server启动一个代理网关
kubectl proxy --port=8080
之后就可以通过curl来对此套字节发起访问请求
curl localhost:8080/api/v1/namespaces/ | jq .items[].metadata.name (jq可以对json进行过滤)
12、当定义资源配置文件时,不知道怎么定义的时候,可以查看某类型资源的配置字段解释
kubectl explain pods/deployments/...(二级对象可用类似于pods.spec这种方式查看)
13、查看某资源对象的配置文件
kubectl get source_type source_name -o yaml --export(--export表示省略由系统生成的信息) 后面加 > file.yaml就可以快速生成一个配置文件了
14、label管理相关命令
kubectl label pods/pod_name key=value 添加标签,如果是修改的话需要后面添加--overwrite
kubectl label nodes node_name key=value 给工作节点添加标签,后续可以使用nodeSelector来指定pod被调度到指定的工作节点上运
kubectl label node 192.168.21.12 app=ingress
# kubectl get nodes --show-labels
NAME STATUS ROLES AGE VERSION LABELS
192.168.10.12 Ready controlplane,etcd,worker 29h v1.15.5 app=ingress,beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=192.168.10.12,kubernetes.io/os=linux,node-role.kubernetes.io/controlplane=true,node-role.kubernetes.io/etcd=true,node-role.kubernetes.io/worker=true
192.168.10.13 Ready controlplane,etcd,worker 29h v1.15.5 app=ingress,beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=192.168.10.13,kubernetes.io/os=linux,node-role.kubernetes.io/controlplane=true,node-role.kubernetes.io/etcd=true,node-role.kubernetes.io/worker=true
192.168.10.14 Ready controlplane,etcd,worker 29h v1.15.5 app=ingress,beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=192.168.10.14,kubernetes.io/os=linux,node-role.kubernetes.io/controlplane=true,node-role.kubernetes.io/etcd=true,node-role.kubernetes.io/worker=true
15、注解管理相关命令
kubectl annotate pods pod_name key=value
16、patch修改Deployment控制器进行控制器升级
kubectl patch deployment deployment-demo -p '{"spec": {"minReadySeconds": 5}}'(-p 以补丁形式更新补丁形式默认是json)
kubectl set image deployments deployment-demo myapp=ikubernetes/myapp:v2 修改depolyment中的镜像文件
kubectl rollout status deployment deployment-demo 打印滚动更新过程中的状态信息
kubectl get deployments deployment-demo --watch 监控deployment的更新过程
kubectl kubectl rollout pause deployments deployment-demo 暂停更新
kubectl rollout resume deployments deployment-demo 继续更新
kubectl rollout history deployments deployment-demo 查看历史版本(能查到具体的历史需要在apply的时候加上--record参数)
kubectl rollout undo deployments deployment-demo --to-revision=2 回滚到指定版本,不加--to-v
17、进入pod,查看pod中有几个容器
kubectl exec -ti <your-pod-name> -n <your-namespace> -- /bin/sh
kubectl describe pod kube-flannel-tt2rz -n kube-system (指定名称空间下的pod)
....
Containers:
kube-flannel:
....
State: Running
Ready: True
install-cni:
....
State: Running
Ready: True
18、查看nginx-ingress-controller所在节点
# kubectl get pods -n ingress-nginx -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
default-http-backend-5f55b6c568-4xtw2 1/1 Running 0 29h 10.42.0.3 192.168.10.14 <none> <none>
nginx-ingress-controller-hbx4f 1/1 Running 0 29h 192.168.10.14 192.168.10.14 <none> <none>
nginx-ingress-controller-q28xp 1/1 Running 0 23m 192.168.10.12 192.168.10.12 <none> <none>
nginx-ingress-controller-xqqg7 1/1 Running 0 29h 192.168.10.13 192.168.10.13 <none> <none>
19、升级与回滚
1、创建
kubectl create deployment web --image=nginx:1.14
kubectl get deploy,pods
2、发布
kubectl expose deployment web --port=80 --type=NodePort --target-port= 80 --name=web
kubectl get service
3、升级
kubectl set image deployment/web nginx=nginx1.15
#查看升级状态
kubectl rollout status deployment/nginx-deployment
滚动更新
rolling-update命令: 执行指定ReplicationController的滚动更新。
该命令创建了一个新的RC, 然后一次更新一个pod方式逐步使用新的PodTemplate,最终实现Pod滚动更新,new-controller.json需要与之前RC在相同的namespace下。
# 使用frontend-v2.json中的新RC数据更新frontend-v1的pod
$ kubectl rolling-update frontend-v1 -f frontend-v2.json
# 使用JSON数据更新frontend-v1的pod
$ cat frontend-v2.json | kubectl rolling-update frontend-v1 -f -
# 其他的一些滚动更新
$ kubectl rolling-update frontend-v1 frontend-v2 --image=image:v2
$ kubectl rolling-update frontend --image=image:v2
$ kubectl rolling-update frontend-v1 frontend-v2 --rollback
4、回滚
kubectl rollout history deployment/web
kubectl rollout undo deployment/web
kubectl rollout undo deployment/web --revision=2
5、删除
kubectl delete deploy/web
kubectl delete svc/web
20、输出yaml文件
kubectl create deployment nginx --image=nginx:1.16 -o yaml --dry-run=client > deploy.yaml
kubectl expose deployment nginx --port=80 --type=NodePort -o yaml --dry-run=client > svc.yaml
注:--target-port= 表示应用的监听端口
kubectl get pods pod-name -o yaml > pod.yaml
21、驱逐node上的pod
禁止pod调度到该节点上
kubectl cordon <node>
驱逐该节点上的所有pod
kubectl drain <node>
注:该命令会删除节点上的所有pod(daemonset除外),在其他node上重启他们,通常该节点需要维护时使用该命令。直接使用该命令会自动调用kubectl cordon 命令。当该节点维护完成,启动kubelet后,再使用kubectl uncordon 即可将该节点添加到k8s集群中。