重新初始化k8s master节点

 一共分为以下几步:

1. 删除/etc/kubernetes/文件夹下的所有文件

2. 删除$HOME/.kube文件夹

3. 删除/var/lib/etcd文件夹

3. 删除/var/lib/etcd文件夹

rm -rf /etc/kubernetes/*
rm -rf ~/.kube/*
rm -rf /var/lib/etcd/*

4. 停用端口号, 把下面的这些端口号都停用就ok

lsof -i:6443|grep -v "PID"|awk '{print "kill -9",$2}'|sh

lsof -i:10259|grep -v "PID"|awk '{print "kill -9",$2}'|sh

lsof -i:10257|grep -v "PID"|awk '{print "kill -9",$2}'|sh

lsof -i:2379|grep -v "PID"|awk '{print "kill -9",$2}'|sh

lsof -i:2380|grep -v "PID"|awk '{print "kill -9",$2}'|sh

lsof -i:10250|grep -v "PID"|awk '{print "kill -9",$2}'|sh

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当Kubernetes(k8s)的master节点挂掉时,整个Kubernetes集群的管理和控制功能将受到影响。下面是针对这种情况的解释和应对方法。 首先,Kubernetes的master节点是集群的控制平面,负责管理和协调集群中的所有工作负载。当master节点不可用时,我们需要采取一些措施来恢复和维护集群的稳定运行。 1. 检查并修复故障:首先应该检查master节点的状态,并尝试修复故障。可以通过查看控制平面组件(如kube-apiserver、kube-controller-manager和kube-scheduler)的运行日志来确定问题所在,并尝试重新启动这些组件来恢复服务。 2. 启动新的master节点:如果修复故障的尝试失败或节点无法恢复,则需要启动一个新的master节点。这可以通过创建一个新的虚拟机实例或在现有集群中添加一个新的物理机来实现。然后,我们需要重新配置该节点以成为集群的新的master节点,并确保它能够与其他节点进行通信。 3. 重新初始化集群:如果整个集群的master节点都不可用,并且没有可用的备份或替代节点,则我们需要重新初始化集群。这意味着我们需要重新配置新的master节点,并重新部署和调整在集群中的各个工作负载。这是一个复杂且耗时的过程,需要根据实际情况进行操作。 4. 停用节点故障自动迁移:在恢复或重新初始化新的master节点之前,我们还可以考虑停用节点故障自动迁移(例如使用Kubernetes的DRBD和Pacemaker等手段)。这可以确保在发生故障时,自动将工作负载迁移到其他可用节点上,从而减少对集群的影响。 总之,当Kubernetes的master节点挂了时,我们需要采取适当的措施来修复或替换节点,并确保集群的正常运行。这可能涉及重新启动组件、添加新节点重新初始化集群。同时,我们还可以考虑停用节点故障自动迁移来提高集群的可用性和弹性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值