kubernetes
kubernetes
师傅抓妖
积土成山,风雨兴焉;积水成渊,蛟龙生焉;积善成德,而神明自得,圣心备焉。
展开
-
ldap双主设置pod一直restarting排错
ldap双主设置,ldap1设置ok,ldap2的pod一直restarting(非第一次启动ldap2,有脏数据)1.查看ldap的运行脚本,确定数据目录:2.删除脏数据:rm -fr /data/ldap_testdata/slapd/*3.重启运行脚本即可。原创 2021-06-02 15:17:17 · 205 阅读 · 0 评论 -
k8s节点notready导致的数据库主从切换排错
1.节点notready2.查看节点pod,发现40数据库pod异常3…登陆notready节点主机,查看kubelet,kube-proxy组件状态,running状态,重启kubelet组件4.登陆master节点,查看pod,一直containercreating5.查看evert信息,failedscheduling 调度失败。6.登陆异常节点,重启kube-proxy后,查看pod创建成功7.检查检查数据库集群主从状态:主从进行了切换,通过label切换回主从。8.恢复后的原创 2021-05-26 14:45:29 · 210 阅读 · 0 评论 -
k8s实时查看pod最新n行日志
k -n 分区 logs --tail 5 -f pod名#5 实时显示最新的5行日志原创 2021-05-25 11:36:31 · 1887 阅读 · 1 评论 -
k8s集群etcd数据目录迁移操作指南
k8s版本:v1.18.4主机系统:Red Hat Enterprise Linux Server release 7.6 (Maipo)背景:生产环境etcd所用磁盘经过测试,读写性能太差,导致etcd leader不停切换和k8s组件读取etcd数据异常,需要更换固态盘,提高etcd性能,保证集群稳定性。#必须和租户沟通割接时间和时长,提工单。1、停掉三台主机上的etcd、master的组件。2、登录ansible所在主机,进入/etc/ansible/目录,确认hosts文件的3台etcd主原创 2021-05-22 16:51:13 · 1791 阅读 · 4 评论 -
k8s删除node节点
k8s版本:V1.18.4主机操作系统:CentOS Linux release 7.6.1810 (Core)#生产环境删除节点需要确认主机pod的数据目录,查看存储类型,若数据有用,必须备份数据,确定数据恢复方案后再操作。1.查看集群节点信息:2.删除集群节点:k delete nodes 192.168.10.167查看集群节点信息,167主机已经从集群内删除。3.登录192.168.10.167主机,修改 kubeconfig配置文件。去掉kubeconfig配置中指向的kube-原创 2021-05-17 11:28:13 · 4594 阅读 · 0 评论 -
pod调度到指定主机
1.指定集群主机:2、指定主机名原创 2021-05-12 13:58:00 · 758 阅读 · 0 评论 -
kubelet启动失败报错
summary_sys_containers.go:47] Failed to get system container stats for “/systemd/system.slice”: failed to get cgroup stats for “/systemd/system.slice”: failed to get container info for “/systemd/system.slice”: unknown container "/systemd/system.slicekubel原创 2021-04-28 18:28:04 · 1780 阅读 · 0 评论 -
Prometheus采集k8s组件信息报错排除
某生产环境集群采用高可用部署,部署Prometheus对k8s组件状态进行监控,但是Prometheus界面显示采集不到kuber-apiserver组件信息。错误1.Prometheus监控界面显示apiserver数量为1;错误2.界面显示apiserver的ready数量为0(即,apiserver服务挂了)如果不解决会导致告警短信不断告警。无法跟租户展示k8s组件状态信息。开始排查:正常集群k get ep信息,3台master即显示3个endpoint问题集群:k get endp原创 2021-04-25 18:37:30 · 524 阅读 · 0 评论 -
calico部署采坑小结
前提1.calico 的yaml文件确定没有问题2.各node节点firewalld和selinux关闭3./etc/kubernetes/下的配置文件正确4.apiserver相关参数去掉,不去掉SecurityContextDeny准入控制参数,pod会running但是不能创建成功。1.查看pod2.查看pod的event信息kk describe pod calico-node-v55nsevents显示pod被分配到192.168.10.1663.查看pod日志,报认证错误原创 2021-04-22 15:05:31 · 2848 阅读 · 0 评论 -
k8s高可用haproxy配置-master高可用
haproxy.cfg 配置原创 2021-04-07 17:39:10 · 425 阅读 · 2 评论 -
k8s高可用keeplived配置-master高可用
keeplived 主! Configuration File for keepalivedglobal_defs {router_id LVS_1}vrrp_script checkhaproxy{script “/opt/check.sh”interval 1weight -30}vrrp_instance VI_1 {state MASTERinterface ens33virtual_router_id 51priority 100advert_int 1authe原创 2021-04-07 17:33:35 · 125 阅读 · 0 评论 -
查看集群主机是虚拟机还是物理机
1.dmidecode -s system-product-nameVMware Virtual Platform #包含virtual字样为虚拟机2.dmidecode -s system-product-name#不包含virtual字样为物理机原创 2021-02-05 16:03:32 · 393 阅读 · 0 评论 -
k8s集群设置node节点不可调度
1.查看k8s集群节点k get nodes2.设置节点不可调度kubectl cordon 10.*3.kubectl uncordon node_ip4.驱逐node节点上运行的容器:kubectl drain --ignore-daemonsets node_ip5.删除node 节点,则进行这个步骤:kubectl delete node node-ip...原创 2021-02-02 17:12:20 · 3354 阅读 · 0 评论 -
给不能连接外网的集群安装需要的服务
/etc/yum.conf 1 [main] 2 cachedir=/var/cache/yum/$basearch/$releasever #yum下载的RPM包的缓存目录 3 keepcache=0 #缓存是否保存,1保存,0不保存 4 debuglevel=2 #调试级别(0-10),默认为2 5 logfile=/var/log/yum.log #yum的日志文件所在的位置 6 exactarch=1 #在更新的时候,是否允许更新不原创 2021-02-01 16:08:13 · 116 阅读 · 0 评论 -
k8s给node打label
查看pod状态k -n 分区 get pod pod名 -o wide1,alertmanager状态为pending:2.查看异常pod的event信息3.查看node的label并且grep demo,查看你是否有此label4.为node 10.252.205.170打label5.确认node,是否打上了label6.查看服务状态7.删除node的label,group-demo是keykubectl -n kube-system label nodes 1原创 2020-12-25 18:10:32 · 2559 阅读 · 0 评论 -
k8s添加和更改node的roles
1.查看集群各node的role,为none.2.为node打label,改变node的rolekubectl --kubeconfig=/etc/kubernetes/kubeconfig label nodes 10...* node-role.kubernetes.io/master=3.去掉node的rolekubectl --kubeconfig=/etc/kubernetes/kubeconfig label nodes 10...* node-role.kubernetes原创 2020-12-25 12:42:25 · 3875 阅读 · 0 评论 -
k8s批量重启pod
k -n 分区 get po | grep flu | awk ‘{print $1}’ | xargs kubectl --kubeconfig=/etc/kubernetes/kubeconfig -n paast-admin delete po原创 2020-12-24 16:48:37 · 2827 阅读 · 1 评论 -
k8s删除僵尸pod
kk delete pod calico-kube-controllers-66fc7764d8-9z4ck --force --grace-period=0原创 2020-12-24 16:32:58 · 570 阅读 · 1 评论