k8s集群环境搭建

1:机器准备

这里我们准备三台虚拟机,一台master,二台node

2:安装前的环境确认

所有机器都需要执行:

a:三台机器都可以联网,uname -a查看内核是否大于等于3.1

b:关闭三台机器的防火墙

systemctl stop firewalld

systemctl disable firewalld

c:关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config

d:关闭swap

swapoff -a

vi /etc/fstab

注释这一行:/mnt/swap swap swap defaults 0 0

free -m查看swap是否全为0

e:配置三台机器的主机名,分别在三台机器上执行命令

10.100.0.131上执行:hostnamectl set-hostname k8smaster

10.100.0.196上执行:hostnamectl set-hostname k8snode1

10.100.0.245上执行:hostnamectl set-hostname k8snode2

f:在master的机器上添加hosts,在10.100.0.131上执行命令

cat >> /etc/hosts << EOF

10.100.0.131 k8smaster

10.100.0.196 k8snode1

10.100.0.245 k8snode2

EOF

g:将桥接的IPV4流量传递到iptables的链,三台机器都执行命令

cat > /etc/sysctl.d/k8s.conf << EOF

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

EOF

h:所有节点执行命令,生效

sysctl --system

i:同步每个服务器的时间和时区

yum install ntpdate -y

ntpdate time.windows.com

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

3:三台机器全部安装docker

所有机器都需安装

3.1:配置阿里云的镜像

wget http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

3.2:刷新yum源

yum clean all

yum makecache

yum -y update

3.3:安装docker

yum -y install docker-ce-18.06.1.ce-3.el7

如果之前机器上有安装过,先删除,执行

yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-selinux docker-engine-selinux docker-engine

3.4:启动docker,并设为开机自启动

systemctl enable docker && systemctl start docker

4:配置kubeadm,kubelet,kubectl镜像

所有机器都需要:

kubelet:运行在集群所有节点上,负责启动POD和容器

kubeadm:用于初始化集群

kubectl:kubenetes命令行工具,通过kubectl可以部署和管理应用,查看各种资源,创建,删除和更新组件

4.1:创建yum源的文件

cat > kubernetes.repo << EOF

[kubernetes]

name=Kubernetes

baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

repo_gpgcheck=0

gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

EOF

4.2:将文件移到yum的目录

mv kubernetes.repo /etc/yum.repos.d/

5:安装kubeadm,kubelet,kubectl

所有机器都需要:

yum install -y kubelet-1.17.0 kubeadm-1.17.0 kubectl-1.17.0

systemctl enable kubelet

6:初始化kubeadm(只在master机器上)

只执行master机器10.100.0.131:

拉取镜像

docker pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.17.17
docker pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.17.17
docker pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.17.17
docker pull registry.aliyuncs.com/google_containers/kube-proxy:v1.17.17
docker pull registry.aliyuncs.com/google_containers/pause:3.1
docker pull  registry.aliyuncs.com/google_containers/etcd:3.4.3-0
docker pull registry.aliyuncs.com/google_containers/coredns:1.6.5

修改镜像名称
docker tag registry.aliyuncs.com/google_containers/kube-apiserver:v1.17.17 k8s.gcr.io/kube-apiserver:v1.17.17  
docker tag registry.aliyuncs.com/google_containers/kube-controller-manager:v1.17.17 k8s.gcr.io/kube-controller-manager:v1.17.17  
docker tag registry.aliyuncs.com/google_containers/kube-scheduler:v1.17.17 k8s.gcr.io/kube-scheduler:v1.17.17 
docker tag registry.aliyuncs.com/google_containers/kube-proxy:v1.17.17 k8s.gcr.io/kube-proxy:v1.17.17  
docker tag registry.aliyuncs.com/google_containers/pause:3.1 k8s.gcr.io/pause:3.1 
docker tag registry.aliyuncs.com/google_containers/etcd:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0 
docker tag registry.aliyuncs.com/google_containers/coredns:1.6.5 k8s.gcr.io/coredns:v1.6.5

kubeadm init --apiserver-advertise-address=10.100.0.131 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version v1.17.0 --service-cidr=10.96.0.0/12 --pod-network-cidr=10.244.0.0/16

7:将k8s生成的管理员连接k8s集群的配置文件考到它默认的工作目录

只执行master机器10.100.0.131:

这样就可以通过kubectl连接k8s集群了,执行命令:

mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/config

测试:

kubectl get node

8:安装pod网络插件CNI

只执行master机器10.100.0.131:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

kubectl get pods -n kube-system

所有组件状态都为:Running

如果节点状态为NotReady,可通过journalctl -xefu kubelet    排查具体报错问题

报错问题

104114 cni.go:237] Unable to update cni config: no valid networks found in /etc/cni/net.d

104114 kubelet.go:2183] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

解决:拷贝master节点的文件/etc/cni/net.d/10-flannel.conflist,放到node节点

9:将节点加入集群中

9.1:执行命令(在master机器上)

kubeadm token list #查看现在有的token

kubeadm token create #生成一个新的token

kubeadm token create --ttl 0 #生成一个永远不过期的token

9.2:获取ca证书sha256编码hash值(在master机器上运行)

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

9.3:加入节点(在要加入的机器上)

kubeadm join master机器Ip:6443 --token 9.1步查到没过期的token --discovery-token-ca-cert-hash sha256:9.2中获取的字符串

9.4:在master机器上执行命令,查看现在的节点情况

kubectl get nodes

可以看到,刚才加入的二个节点状态是NotReady,是因为它的网络还没有准备好,过几分钟再看,就会变成Read状态

10:部署K8s的管理页面Dashboard

10.1:在master中执行下列命令:

kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta8/aio/deploy/recommended.yaml

10.2:

默认Dashboard只能集群内部访问,需要修改service为nodePort类型,暴露到外部,执行命令将配置文件下载下来

wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta8/aio/deploy/recommended.yaml

10.3:修改这个文件

vi recommended.yaml

找到这段,增加红包部分,冒号后面有一个空格,千万要注意

spec:

type: NodePort

ports:

- port: 443

targetPort: 8443

nodePort: 30001

selector:

k8s-app: kubernetes-dashboard

10.4:重新加载运行配置文件

kubectl apply -f recommended.yaml

11:访问k8s管理页面

https://master机器ip:30001

注意:这里必须是https的方式,如果谷哥浏览器不能访问,谷哥有的版本没有添加信任的地方,无法访问,可使用firefox或者其它浏览器。

12:创建默认service account并绑定默认cluster-admin管理员集群角色

12.1:在master机器上执行命令:

kubectl create serviceaccount dashboard-admin -n kube-system

kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

12.2:将生成的token复制到页面就可以登陆了

13:其他问题

如果想在node节点执行kubectl,需将master节点的文件分别copy到node节点

scp  /etc/kubernetes/admin.conf   10.100.0.196:/etc/kubernetes/admin.conf

scp  /etc/kubernetes/admin.conf   10.100.0.245:/etc/kubernetes/admin.conf

分别在两个node节点上配置环境变量并生效

echo export KUBECONFIG=/etc/kubernetes/admin.conf >> ~/.bash_profile

source ~/.bash_profile

然后可正常执行kubectl命令

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值