kubernetes
记录学习过程
六月的翅膀
人生本是无根草,醉了何必问家乡
展开
-
Kubesphere查看token
curl -X POST \ http://IP:30880/kapis/iam.kubesphere.io/v1alpha2/login \ -H 'Content-Type: application/json' \ -d '{ "username":"admin", "password":"密码"}'原创 2020-10-28 16:09:21 · 670 阅读 · 0 评论 -
为k8s-master节点添加/移除污点taints
手动部署的k8s集群, 需要为master节点手动设置taints设置taint语法: 12345 kubectl taint node [node] key=value[effect] 其中[effect] 可取值: [ NoSchedule | PreferNoSchedule | NoExecute ] NoSchedule: 一定不能被调度 PreferNoSchedule: 尽量不要调度 No转载 2020-09-24 12:04:54 · 36463 阅读 · 0 评论 -
Kubesphere V2.1.1安装后开启可拔插组件DevOps(2)
Kubesphere V2.1.1安装后开启可拔插组件DevOps(1)前面开启Devops后,发现有几个pod异常查看一下pod日志kubectl describe pod -n kubesphere-devops-system ks-jenkins-6d78cbf955-sj6b6显示的错误如下Events: Type Reason Age From Message ---- ---.原创 2020-09-22 16:51:20 · 795 阅读 · 0 评论 -
Kubesphere V2.1.1安装后开启可拔插组件DevOps
当时安装KS的时候,按最小化装的,没有Devops系统,在已经安装好KS的情况下,开启组件。参考官网链接:https://v2-1.docs.kubesphere.io/docs/zh-CN/installation/install-devops/先备份一下源文件中的Devops这部分devops: enabled: false jenkinsMemoryLim: 8Gi jenkinsMemoryReq: 4Gi jenkinsVo..原创 2020-09-22 13:45:57 · 1206 阅读 · 1 评论 -
学习之路>>负载均衡
负载均衡设备也常被称为"四到七层交换机":所谓四层就是基于IP+端口的负载均衡;七层就是基于URL等应用层信息的负载均衡;同理,还有基于MAC地址的二层负载均衡和基于IP地址的三层负载均衡。换句换说,二层负载均衡会通过一个虚拟MAC地址接收请求,然后再分配到真实的MAC地址;三层负载均衡会通过一个虚拟IP地址接收请求,然后再分配到真实的IP地址;四层通过虚拟IP+端口接收请求,然后再分配到真实的服务器;七层通过虚拟的URL或主机名接收请求,然后再分配到真实的服务器。所谓的四到七层负载原创 2020-08-14 11:23:35 · 211 阅读 · 0 评论 -
k8s系统架构图(二)
一个K8S集群由两部分构成 master节点和node节点。master节点主要负责集群的控制,对pod进行调度,已经令牌管理等等功能。node节点主要是负责干活,启动容器、管理容器。master节点和node节点一般不要部署在一台机器上。上面这个架构图,举例是一个master节点和2个node节点。但实际生产上,从高可用考虑,是需要部署多个master节点的。将这张图抽象一下,大约是这个样子master节点中又有很多组件主要的是:Api Server:对外...原创 2020-08-14 09:59:39 · 926 阅读 · 0 评论 -
k8s系统架构图
1、Master和Node1)、MasterK8S中的Master是集群控制节点,负责整个集群的管理和控制在Master上运行着以下关键进程:kube-apiserver:提供了HTTP Rest接口的关键服务进程,是K8S里所有资源的增删改查等操作的唯一入口,也是集群控制的入口进程 kube-controller-manager:K8S里所有资源对象的自动化控制中心,集群内各种资源Controller的核心管理者,针对每一种资源都有相应的Controller,保证其下管理的每个Con转载 2020-08-14 09:54:18 · 8577 阅读 · 0 评论 -
K8S集群安装KubeSphere失败记录
是的。今天早上安装又没成功,这特么这玩意儿有那么难搞吗???有/????首先。我是通过下面这样把yaml配置文件get到本地wget https://raw.githubusercontent.com/kubesphere/ks-installer/v3.0.0-alpha.1/deploy/kubesphere-installer.yamlwget了两个文件,下面红框然后依次配置两个yaml文件(下面只贴了一行)kubectl apply -f kubesphere-i原创 2020-08-05 11:35:08 · 10713 阅读 · 12 评论 -
K8S+KubeSphere之Helm安装
K8S集群部署好了,打算接着部署KubeSphere,我忽视Helm直接安装KubeSphere不成功,搞不定只好先装Helm了安装Helm客户端#下面是安装最新master版本curl https://raw.githubusercontent.com/helm/helm/master/scripts/get | bash#想要指定版本安装的话curl https://raw.githubusercontent.com/helm/helm/release-2.16/scripts原创 2020-08-04 20:33:18 · 2437 阅读 · 1 评论 -
error pulling image configuration: Get https://production.cloudflare.docker.com/registry-v2/docker/r
问题描述:在k8s集群基础上部署kubesphere,部署不成功,多个容器状态显示异常kubectl get pods -n kubesphere-system首先查看某个异常pod的详细信息kubectl describe pod ks-apiserver-7b6bdb7cd9-hwr64 -n kubesphere-system发现问题如下:Failed to pull image "kubespheredev/ks-apiserver:latest": rpc er原创 2020-08-03 19:20:12 · 2805 阅读 · 0 评论 -
k8s修改node的ROLES标签
如下图,在k8s集群部署好之后,我看别人的教程都是这样婶儿的我也不知道怎么搞的/微笑我弄好之后是这样的这就有点强迫症了解决我先参考了别人的方法,结果特么搞成这样了因为我是想让他变成master,不是master02因为我是第一次用这个指令,也不懂啥意思这下懂了再来一次我特么!!呆了。。陷入了沉思。。。生活还得继续啊,接着查查吧到这里是不是就一目了然了语法就是kubectl label nodes 节点名字node-role.k.原创 2020-07-29 19:04:03 · 4105 阅读 · 2 评论 -
k8s初始化集群后kubectl get nodes错误
刚刚初始化集群,想查看一下节点状态,显示refused[root@master01 ~]# kubectl get nodesThe connection to the server localhost:8080 was refused - did you specify the right host or port?解决:配置kubectl工具mkdir -p /root/.kubecp /etc/kubernetes/admin.conf /root/.kube/configk原创 2020-07-28 13:20:45 · 4033 阅读 · 1 评论 -
通过kubernetes release制作k8s rpm包
https://blog.csdn.net/weixin_39961559/article/details/80742483原创 2020-07-24 14:34:19 · 274 阅读 · 0 评论 -
k8s版本与docker版本依赖关系
先看到的是这个博主:docker安装必须匹配k8s的版本,docker与k8s版本兼容问题解决如果kubernetes的版本为1.8-1.11,docker版本必须为1.11.2-1.13.1和docker-ce版本为17.03.x如果kubernetes的版本从1.12开始,docker版本必须为17.06/17.09/18.06详细版本依赖请参照该地址:https://stackoverflow.com/questions/53256739/which-kubernetes-vers原创 2020-07-24 13:53:11 · 13359 阅读 · 0 评论 -
配置文件keepalived.conf详解
Keepalived的配置文件可以分为三块:全局定义块:对整个 Keepalive 配置生效的,不管是否使用 LVS;VRRP 实例定义块:是 Keepalived 的核心;虚拟服务器(LVS)定义块:LVS 配置只在使用 Keepalived 来配置和管理 LVS 时才需要使用,如果仅仅使用 Keepalived做 HA,LVS 的配置完全是不需要的。配置文件都是以块(block)形式组织的,每个块都在{和}包围的范围内。#和!开头的行都是注释。[root@localhost ~]# cat转载 2020-07-24 10:38:35 · 683 阅读 · 0 评论 -
k8s配置以使得pod可以运行于master上
使用kubeadm部署的kubernetes集群,其master节点默认拒绝将pod调度运行于其上的,加点官方的术语就是:master默认被赋予了一个或者多个“污点(taints)”,“污点”的作用是让该节点拒绝将pod调度运行于其上。想让master也成为工作节点可以调度pod运行怎么办呢?两种方式:①去掉“污点”(taints)【生产环境不推荐】;②让pod能够容忍(tolerations)该节点上的“污点”。修改yaml文件:查看结果,其中有三个副本已经运行在了maste.原创 2020-07-20 16:53:52 · 2271 阅读 · 0 评论 -
k8s创建Deployment报错:missing required field “selector“ in io.k8s.api.apps.v1.DeploymentSpec
报错类型:[root@master ~]# kubectl create -f lzb-test.yaml error: error validating "lzb-test.yaml": error validating data: ValidationError(Deployment.spec): missing required field "selector" in io.k8s.api.apps.v1.DeploymentSpec; if you choose to ignore thes原创 2020-07-20 15:18:20 · 18951 阅读 · 5 评论 -
离线安装 KubeSphere 2.1.1 与 Kubernetes
注意事项请确保机器磁盘可用空间不小于 100 G,并建议您在安装前,对/var/lib/docker(存放本机镜像数据) 和/mnt/registry(仅本地仓库所在机器) 目录单独挂盘(参考fdisk 命令),挂盘大小请根据业务规模确定,原则不小于100G。 由于离线部署无法连接公共 apt 或 yum 源,可能会遇到依赖问题,因此建议使用纯净操作系统进行部署。上面的注意事项感觉也没啥看的,就是保证存储空间足够用,就是下面这样(我这边服务器都是4C8G的,就只能先最小化安装)CPU:最...原创 2020-08-07 14:44:43 · 1725 阅读 · 1 评论 -
haproxy+keepalived实现高可用K8S集群部署
普通的k8s集群:当某个work节点故障时是高可用的但是master节点故障时将会发生崩溃因为k8s api server不可用会导致整个集群群龙无首高可用的k8s集群:其原理是将所有work节点对master的api请求通过负载均衡(haproxy)指向虚拟ip(keepalived)而此虚拟ip由所有master节点通过优先级选举多master节点负载均衡的kubernetes集群,主要有两种拓扑结构:1)堆叠control plane node2)exte原创 2020-08-12 14:43:49 · 2538 阅读 · 0 评论