K8S集群再搭建

 前述:总体是非常简单的,就是过程繁琐,不过都是些重复的操作

master成员: [controller-manager, scheduler, api-server, etcd, proxy,kubelet]

node成员:    [kubelet, proxy]

=====master要修改的配置文件有=====

1. vi /etc/etcd/etcd.conf  # 数据存储目录/对外监听地址/本机ip

2. vi /etc/kubernetes/apiserver #开放api-server端口/指明监听奴隶节点端口/指明etcd地址

3. vi /etc/kubernetes/config   # 告诉proxy api-server是谁?

4. vi /etc/kubernetes/kubelet # 注册自己信息,并将告诉自己的master是是谁?

=====node要修改的配置文件有=====

1. vi /etc/kubernetes/config    # 告诉proxy api-server是谁?

2. vi /etc/kubernetes/kubelet  # 注册自己信息,并将告诉自己的master是是谁?

小结:master节点需要多配置etcd和apiserver,剩下2个一样的 。需要注意节点要关闭防火墙或者开发对映的端口,要不然,node无法加入master

进入正题。。。。。。。。。。

================Master======================

1. 安装etcd服务

### 准备3个节点并修改节点hostname

hostnamectl set-hostname k8s-master
hostnamectl set-hostname k8s-node1
hostnamectl set-hostname k8s-node2

### 配置3个节点的域名解析

vi /etc/hosts

```

192.168.208.160 k8s-master
192.168.208.161 k8s-node1
192.168.208.162 k8s-node2

```

### 将配置文件发送给另外2个节点

scp -rp /etc/hosts 192.168.208.161:/etc/hosts

scp -rp /etc/hosts 192.168.208.162:/etc/hosts

### master节点下载数据库ETCD

yum install -y etcd

vi /etc/etcd/etcd.conf

```

# 数据存储目录

ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

# 监听地址,设置任意ip都可以访问
ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"

# 如果配置etcd集群,名称必须不一样
ETCD_NAME="default"

# master节点的IP
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.208.160:2379"

```

### 启动ETCD并设置开机自启

systemctl restart etcd
systemctl enable etcd

 2. 安装kubernetes-master包含了apiserver、controller-manager、schedulerh、kubernetes-client(kubectl命令)

yum install -y kubernetes-master.x86_64

# apiserver配置

vi /etc/kubernetes/apiserver

```

#如果仅限本地访问可以设置成本机IP
KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"

#开放apiserver端口的节点将属于master节点
KUBE_API_PORT="--port=8080"

#奴隶节点的端口,奴隶节点是什么端口这里就配置什么端口
KUBELET_PORT="--kubelet-port=10250"

#指明ETCD的地址
KUBE_ETCD_SERVERS="--etcd-servers=http://192.168.208.160:2379

```

# controller-manager, scheduler, kube-proxy 公共配置

vi /etc/kubernetes/config

```

#为controller-manager, scheduler, kube-proxy指明api-server
KUBE_MASTER="--master=http://192.168.208.160:8080"

```

### 启动 api-server、controller-manager、scheduler

systemctl start kube-apiserver.service
systemctl start kube-controller-manager.service
systemctl start kube-scheduler.service

# 顺手设置开机自启

systemctl enable kube-apiserver.service
systemctl enable kube-controller-manager.service
systemctl enable kube-scheduler.service

### 检查主节点成员状态,这里的api-server不会显示,能执行kubectl命令说明api-server正常,kube-proxy 需要安装kubernetes-node时才会安装,一并安装还有kubelet
kubectl get componentstatus

===============Node====================

1. 安装kubernetes-node 包含 poxy、kubelet, 还有会自动安装docker哦!!

#### master自己也成为奴隶节点

yum install -y kubernetes-node.x86_64

# kubelet 配置

vi /etc/kubernetes/kubelet

```

#### 奴隶节点联系上司的地址(192.168.208.160既是master又是奴隶节点,但它一般不干重活,192.168.208.161、192.168.208.162均为奴隶节点)
KUBELET_ADDRESS="--address=192.168.208.160"

#这个奴隶节点的端口要跟master监听的端口保持一致,因为master的配置监听端口就是按照下面的端口配置的
KUBELET_PORT="--port=10250"

# 奴隶节点的身份信息,可以是IP,也可以域名(必须先配置域名解析,开始就做好了,其它奴隶节点是 k8s-node1 、k8s-node2)
KUBELET_HOSTNAME="--hostname-override=k8s-master"

# 指明api-server

KUBELET_API_SERVER="--api-servers=http://192.168.208.160:8080"

```

### 启动kubelet、proxy 会带着启动docker

systemctl start kubelet.service

systemctl start kube-proxy.service

systemctl enable kubelet.service

systemctl enable kube-proxy.service

### 剩余的k8s-node1、k8s-node2 重复操作2次就好,下面配上截图

k8s-master 、k8s-node1、k8s-node2都一样的

 

上面集群简单的集群已经搭建好,后续要安装网络插件ssh 用于节点之间的通信

后续。。。。。。。

yum install -y flannel

vi /etc/sysconfig/flanneld

```

# 使用etcd作为pod的IP注册中心

FLANNEL_ETCD_ENDPOINTS="http://192.168.208.160:2379"

# 使用默认的前缀

FLANNEL_ETCD_PREFIX="/atomic.io/network"

```

###该ip网段可以任意设定,随便设定一个网段都可以。Pod里的容器的ip就是根据这个网段进行自动分配的,下面截图会解释

etcdctl set /atomic.io/network/config '{ "Network":"172.10.0.0/16" }'

etcdctl get /atomic.io/network/config

systemctl start flanneld.service
systemctl enable flanneld.service

# 重启dockers后,docker的ip网段也会变的一样

systemctl restart docker

同理配置奴隶节点 k8s-node1  k8s-node2,但不要执行etcdctl set /atomic.io/network/config '{ "Network":"172.10.0.0/16" }',因为etcd只在master节点,node节点是没有的

至此,已经安装好网络插件flannel ,接下安装一个测试沙箱,沙箱运行后会进入容器内部,通过ping ip测试不同节点上容器之间是否能正常通讯

docker pull busybox:1.27

docker images

docker run -it <镜像id>

master节点成功ping通2个node节点,到此低配版K8S集群搭建完成

踩坑!!!!!如果上面没有ping通,看看是否有下面的情况,本人的是没有遇到的

如果出现iptables 如下,我这个默认是ACCEPT,所以不用修改

# 这种设置是临时的重启失效(可以忽略)直接看iptables永久配置

iptables -P FORWARD ACCEPT

 iptables永久配置:

systemctl daemon-reload 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值