kubernetes
文章平均质量分 59
觅食的蛇
一生何求
展开
-
使用 kube-prometheus(release-0.6) 监控 Kubernetes v1.18.20
Prometheus的本职就是一组用户自定义的CRD资源以及Controller的实现,负责监听这些自定义资源的变化,并且根据这些资源的定义自动化的完成如自身以及配置的自动化管理工作。以下是的架构图。prometheus-operator官方地址:https://github.com/prometheus-operator/prometheus-operator。原创 2022-12-22 16:03:28 · 821 阅读 · 1 评论 -
kubernetes 集群中的 node 上为啥需要资源预留?
kubernetes 的节点可以按照 Capacity 调度。默认情况下 Pod 能够使用节点全部可用容量。这是个问题,因为节点通常情况下还运行不少驱动操作系统和kubernetes 集群系统的守护进程(system daemons)。除非为这些系统守护进程留出资源,否则它们将会与 pod 争夺资源并导致节点资源短缺问题。按照是否为 Pod,可以把计算节点的进程分为两类:没有预留的情况下,也就是我们使用kubeadm 工具默认部署好的请求下如果没有资源预留,k8s 默认认为宿主机上所有的资源(RAM、C原创 2022-12-08 09:44:29 · 604 阅读 · 0 评论 -
如何让多个Pod均匀部署到各个节点上?
Kubernetes 中kube-scheduler 组件负责 Pod 的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。过滤阶段会将所有满足 Pod 调度需求的节点都选出来,在打分阶段 kube-scheduler 会给每一个可调度节点进行优先级打分,最后 kube-scheduer 会将 Pod 调度到得分最高的节点上,如果存在多个得分最高的节点,kube-scheduler 会从其中随机选取一个。原创 2022-11-21 21:48:37 · 1000 阅读 · 0 评论 -
Kubernetes 在部署 metrics-server 的时候报错
在 kubernetes 1.18.20 集群上部署 Metrics-Server 的时候出现了如下的错误:原创 2022-11-20 13:23:48 · 910 阅读 · 0 评论 -
Upgrade k8s single master to multi-master cluster
如果上面的操作都一切顺利,最后一步是将上面的集群配置信息保存到集群的 kubeadm-config 这个 ConfigMap 中去,这一点非常重要,这样以后当我们使用 kubeadm 来操作集群的时候,相关的数据不会丢失,比如升级的时候还是会带上 certSANs 中的数据进行签名的。通过上面的命令可以查看到 APIServer 签名的 DNS 和 IP 地址信息,一定要和自己的目标签名信息进行对比,如果缺失了数据就需要在上面的 certSANs 中补齐,重新生成证书。重启kube-proxy。原创 2022-11-11 13:04:57 · 3430 阅读 · 0 评论 -
Ingress 资源与 networking.k8s.io/v1 问题
官方文档:https://kubernetes.io/blog/2019/07/18/api-deprecations-in-1-16/、https://kubernetes.io/blog/2021/07/26/update-with-ingress-nginx/ 和。这个v1beta1 版本中来,至于什么时候开始这个 networking.k8s.io/v1beta1 这个beta版本变成了稳定版本,可以看。版本下, 我们ingress 的yaml 里,有些。, e.g ,下面我们需要修改我们的。原创 2022-10-14 15:09:39 · 4266 阅读 · 0 评论 -
强制删除kubernetes中的处于Terminating状态的资源
1 强制删除 kubernetes 中的pod 资源# pod处于 Terminating 状态,先查看该pod是否有对应的deployment资源和replicaset资源,如果有这两种资源先删除这两种资源kubectl delete deployment <deploy-name> -n namespacekubectl delete rc <rc-name -n> namespace# 再去删除podkubectl delete pod <pod-name>原创 2022-05-25 20:47:04 · 941 阅读 · 0 评论 -
k8s部署redis报错:MatchExpressions:[]v1.LabelSelectorRequirement(nil)}: field is immutable
在k8s集群中部署redis时报错:The Deployment "redis" is invalid: spec.selector: Invalid value: v1.LabelSelector{MatchLabels:map[string]string{"app":"redis"}, MatchExpressions:[]v1.LabelSelectorRequirement(nil)}: field is immutable报错原因:在同一个命名空间已经部署一个相同name的deployme原创 2021-03-23 15:23:50 · 2986 阅读 · 0 评论 -
kubesphere应用商店问题
系统环境kubernetes版本kubesphere版本ubuntu18.04v1.18.5v3.0.0我是先通过kubeadm工具安装的一个master两个node,然后kubesphere的官方文档在此基础上直接安装的kubesphere。在安装好后,访问web界面的时候,出现如下报错:查看日志:root@k8smaster1:~# kubectl get all -n openpitrix-systemNAME ...原创 2021-02-08 10:46:53 · 872 阅读 · 0 评论 -
离线一键部署k8s
ubuntu 18.04.5上shell脚本离线一键部署k8s-v1.18.5注意事项(单master存在单点故障,生产环境慎用)三台ubuntu18.04.5系统,主机名不要相同,保证时间相同在内网机器中,需要单独找一台部署机来执行脚本,保证部署机器与要部署三台节点正常通信修改4个文件的IP数组,start.sh、./scripts/deploy-machine-node.sh、./scripts/nodex.txt、./scripts/install-kuboard.sh默认IP数组中的第一原创 2021-01-22 10:23:26 · 1363 阅读 · 0 评论 -
k8sv1.18.x版本更改证书时间
kubernetes更改证书时间使用kubeadm按照的k8s,所有的证书都是放在 /etc/kubernetes/pki这个目录下的,我们可以查看每个证书的时间,会发现ca证书除外,其他组件证书都是默认一年有效期,ca类型的证书的有效期为10年。root@k8smaster1:~# kubeadm alpha certs check-expiration[check-expiration] Reading configuration from the cluster...[check-expira原创 2021-01-22 09:12:17 · 827 阅读 · 0 评论