浅尝Kubernetes

第一节

内容编排与Kubernetes
为什么要用k8s

集群环境容器部署的困境,假设我们有数十台服务器。分别部署Nginx,redis,mysql,业务服务。如何合理的分配这些资源。这里就需要用到容器编排

容器编排

在实际集群环境下,需要自动完成容器的构建和部署,在宿主机上安装什么容器,如何管理,完成这些工作的工具就是容器编排工具。

常见的容器编排工具

Docker compose :单机多容器

Docker swarm: 官方跨主机的容器编排工具

kubernetes(k8s) :Google提供的容器编排工具,和docker swarm是竞争对手关系,功能上相差不多。

k8s优势

Google提供,因为google体量大,k8s的实际编排经验上更多,市场占有率更高

K8s的职责

自动化容器的部署和复制

随时扩展与收缩容器规模

容器分组Group,并且提供容器间的负载均衡

实时监控,实时的故障发现,自动替换

k8s基本概念

img

Pod:
  • Pod是“容器”的容器,可以包含多个“Container”
  • Pod是k8s最小可部署单元,一个Pod就是一个进程
  • Pod内容容器网络互通,每个Pod都由自己虚拟IP
  • Pod都是部署完整的应用或模块

Pause(容器):提供了网络底层功能,简单理解Pod内容器间的请求变成localhost,IPC(NetWork(PID(HostName pause …)))

Container(容器)

Label(标签)

说明标签,相当于每一个Pod的别名,方便k8s主节点Master找到对应的Pod进行操作

Replication Controller(复制控制器)

存在于主节点Master上,它的职责是对Pod的数量进行实时监控,剔除失去响应的Pod ,改变参数控制Pod副本的数量

Service(服务)

跨主机、跨容器间的网络通信,进行逻辑分组

Node(节点)

Kubernetes Master(k8s主节点)

具体使用到的技术

每个节点都应该安装三个应用程序,docker,kubelet,kube-proxy

kubelet:用于执行相应的k8s命令,横向对比docker相当于docker命令。kubelet是k8s的核心命令。

kube-proxy:代理,Service能做到跨主机、跨容器间的网络通信,依赖的就是kube-proxy

第二节

安装K8S的四种方式
  • 使用kubeadmin通过离线镜像安装(推荐)
  • 使用阿里云共有云平台平台k8s(花钱)
  • 通过yum官方仓库安装(上古版本)
  • 二进制包的形式进行安装,kubeasz(github)

设计初安装并不复杂,一切的安装包都是google远程下载安装,因为墙的原因,只能使用上面四种,推荐使用第一种,选择业界稳定版本

环境准备
虚拟机

Centos7 Master *1, Master:192.168.163.132

Centos7 Node *2 ,Node1:192.168.163.133, Node2:192.168.163.137

设置主机名与时区、添加hosts网络主机配置,三台虚拟机都要设置

1.设置时区、主机名

timedatectl set-timezone Asia/Shanghai # 都要执行
hostnamectl set-hostname master #132执行
hostnamectl set-hostname node1 #133执行
hostnamectl set-hostname  node2 #137执行

2.网络配置

#设置好以后可以通过主机名来和其他主机进行网络数据传输,比如在master主机中ping node1,ping node1,网络是通的

vim /etc/hosts 
# 黏贴下面内容
192.168.163.132 master
192.168.163.133 node1
192.168.163.137 node2

3.关闭防火墙,三台虚拟主机都要设置。生产环境跳过

#学习过程中linux安全增强模块关闭
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
#设置临时生效
setenforce 0
#禁用防火墙,防止端口被屏蔽
systemctl disable firewalld
#停止防火墙
systemctl stop firewalld
安装Kubeadm快速部署工具
步骤

不只是Master节点,所有节点都需要严格按照下面步骤运行。

1.将镜像包上传至服务器每个节点

mkdir /usr/local/k8s-install

cd /usr/local/k8s-install

XFTP 上传安装文件kubernetes-1.14

[^安装镜像kubernetes-1.14文件夹下面的kuber114-rpm.tar.gz是我们的kubeAdm集群管理工具的压缩包; docker-ce-18.09.tar.gz是docker的压缩包;k8s-114-images.tar.gz是k8s镜像本身;flannel-dashboard.tar.gz是仪表盘,用来监控集群状态的;]:

2.每个Centos上安装Docker

tar -zxvf docker-ce-18.09.tar.gz
cd docker
# 加载当前目录下所有rpm文件,自动完成安装
yum localinstall -y *.rpm
# 启动docker
systemctl start docker
# 设置docker为自启动
systemctl enable docker

3.确保从cgroups均在同一个从groupfs

#cgroups是control groups的简称,它为Linux内核提供了一种任务聚集和划分的机制,通过一组参数集合将一些任务组织成一个或多个子系统。
#cgroups是实现IaaS虚拟化(kvm、lxc等),PaaS容器沙箱(Docker等)的资源管理控制部分的底层基础。
#子系统是根据cgroup对任务的划分功能将任务按照一种指定的属性划分成的一个组,主要用来实现资源的控制。

#在cgroup中,划分成的任务组以层次结构的形式组织,多个子系统形成一个数据结构中类似多根树的结构。cgroup包含了多个孤立的子系统,每一个子系统代表单一的资源

docker info | grep cgroup

如果不是groupfs,执行下列语句

cat << EOF > /etc/docker/daemon.json
{
“exec-opts”: [“native.cgroupdriver=cgroupfs”]
}
EOF
systemctl daemon-reload && systemctl restart docker

4.安装kubeadm
kubeadm是集群部署工具
cd /usr/local/k8s-install/kubernetes-1.14
tar -zxvf kube114-rpm.tar.gz
cd kube114-rpm
yum localinstall -y *.rpm

5.关闭交换区
swapoff -a
vi /etc/fstab
#swap一行注释

6.配置网桥

cat < /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

7.通过镜像安装k8s

cd /usr/local/k8s-install/kubernetes-1.14

#加载本地镜像

docker load -i k8s-114-images.tar.gz

#加载仪表盘镜像

docker load -i flannel-dashboard.tar.gz

第三节

利用kubeadm创建集群
集群设备

Centos7 Master *1, Master:192.168.163.132

Centos7 Node *2 ,Node1:192.168.163.133, Node2:192.168.163.137

初始化一主两从集群设备

1.master主服务器配置

#指定k8s版本,pod的虚拟ip范围 

kubeadm init --kubernetes-version=v1.14.1 --pod-network-cidr=10.244.0.0/16

#控制台提示需要运行以下命令

mkdir -p $HOME/ .kube

#/etc/kubernetes/admin.conf 是kubeadm有关于集群的核心配置文件, $HOME/.kube/config是k8s默认去读取的文件夹

sudo cp -i /etc/kubernetes/admin.conf  $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/congfig

#不需要在master运行,后面会在node1和node2运行,node1、node2和master构建成集群

kubeadm join 192.168.163.132:6443 --token aoeout.xxx \ --discover-token-ca-cert-hash sha256:xxx -discovery-token-unsafe-skip-ca-verfication
# 如果忘记上面的命令,在master上运行,拿到令牌aoeout.xxx
kubectl token list

2.检查下master状态

kubectl get nodes

#查看存在问题的pod,所有组件都是running状态,k8s的master设置完成

kubectl get pod --all-namespaces

#设置全局变量

#加载和创建flannel网络组件(组件状态是pending的话,尝试使用下面命令,跨pod通信最底层的网络协议)

kubectl create -f kube-flannel.yaml

3.从节点Node1和node2设置

#node1和node2设置

kubeadm join 192.168.163.132:6443 --token aoeout.xxx \ --discover-token-ca-cert-hash sha256:xxx

#检查集群状态

kubectl get nodes

第四节

重新启动服务

用于服务器重启了,恢复k8s。

  • 启动节点的k8s服务,systemctl start kubelet
  • 设置开机启动 systemctl enable kubelet,即便服务器重启了,kubelet也会随之重启
kubeadm/kubelet/kubectl区别

1.kubeadm是kubernetes集群快速构建工具,快速构建主节点,让从属的node节点快速加入当中 ,大幅度简化集群构建工作

2.kubelet运行在所有节点上,负责启动POD和容器的程序,以系统服务形式在后台运行,保证POD和容器的可用性

3.kubectl是kubernetes命令行工具,提供指令,对集群发送各种命令

启动Web UI Dashboard

在k8s 中默认提供了一个可视化界面,对集群进行监控和管理,学习下如何开启Web UI和基本的操作

先找到kubernetes-1.14文件夹,找到文件夹下面的kubernetes-dashboard.ymal仪表盘的核心配置文;admin-role.yaml配置文件说明管理员角色有哪些职能;kubernetes-dashboard-admin.rbac.yaml是基于RBAC基于角色的访问控制权限

# 简单配置
# kubectl apply读取配置文件,并使用配置文件进行配置
kubectl apply -f kubernetes-dashboard.yaml
kubectl apply -f admin-role.yaml
kubectl apply -f kubernetes-dashboard-admin.rbac.yaml
# 获取系统命名空间kube-system下的服务有哪些,通过宿主机ip+端口访问控制台
kubectl -n kube-system get svc

第五节

Dashboard部署Tomcat集群

1.配置阿里云镜像加速器

确保每一个集群节点都配置,否则创建容器会遇到无法下载问题

sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://b66nkcgc.mirror.aliyuncs.com"],
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2"
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

2.浏览器回到 dashboard地址 192.168.163.132.32000

左侧菜单中找到工作负载->创建->创建应用->(输入应用名称mytomcat;镜像名称:tomcat:latest;容器组个数:2个副本;服务:外部,其它电脑才可以访问容器;端口:8000是pod端口,目标端口:8080,在容器启动后容器8080端口映射到pod虚拟ip的8000端口)->部署

3.检查概况汇总的部署状况,容器组的状态,点击日志查看日志输出

4.如何访问tomcat,概况->副本集->名称,服务中的 内部端点的端口32421,这个内部端点端口就是外部访问的端口,浏览器中输入node1ip+32421,node2ip+32421,32421可以在服务暴露中修改

5.测试。docker -ps,找到名为tomcat的容器id, 使用命令docker rm- f id,强制删除,来模拟tomcat容器挂掉的场景;k8s会检测到这一情况,并尝试恢复tomcat容器

Deployment脚本部署Tomcat集群

上面的方式是通过dashboard的方式部署,但是在实际工作环境下,我们更多的是通过编写Deployment脚本部署、

Deployment(部署)

部署是指Kubernetes向Node节点发送指令,创建容器的过程

kubernetes支持yml格式部署脚本,描述部署规则

kubectl create -f 部署yml文件 #加载指定脚本, 创建部署

Deployment部署脚本范本
apiVersion: apps/v1  #api的版本号
kind: Deployment  #文件类型,表示用于部署的配置文件
metadata: 
  name: tomcat-deploy  #部署文件名字
spec:
  replicas: 2  #产生的pod数量
  template: 
    metadata:
      labels:
        app: tomcat-cluster  #产生pod的label标签名
    spec:
      volumes: 
      - name: web-app
        hostPath:
          path: /mnt
      containers:
      - nam e: tomcat-cluster  #创建的容器命名
        image: tomcat:latest   #镜像来源名字
        resources:
          requests: #资源分配
            cpu: 0.5
            memory: 200Mi
          limits:
            cpu: 1
            memory: 512Mi
        ports:
        - containerPort: 8080 #容器内对外暴露的端口号
        #volumeMounts: #将容器/usr/local/tomcat/webapps目录挂载到web-app指定的/mnt目录
        #- name: web-app
          #mountPath: /usr/local/tomcat/webapps
部署相关常用命令

kubectl create -f 部署yml文件 #通过-f 指定某个yml创建N个pod部署

kubectl apply -f 部署yml文件 #当第一次没有使用create部署,直接使用apply和create效果一致 配置文件yml更新,部署更新配置

kubectl get pod [-o wide] #查看已部署pod

kubectl describe pod pod名称 # 查看pod详细信息

kubectl logs [-f] pod 名称 #查看pod输出日志, -f表示实时更新

实际操作
# 进入主节点master local文件夹下,创建文件夹k8s,创建文件夹 tomcat-deploy也就是部署文件夹
mkdir k8s
cd k8s
mkdir tomcat-deploy
cd tomcat-deploy
#创建yml文件,名字就叫tomcat-deploy
vim tomcat-deploy.yml

在tomcat-deploy.yml文件中,阐述容器发布规则。

  • apiVersion/kind/metadata:name是对配置文件本身的设置;
  • template模板信息,pod中的名字通过labels:app设置;
  • spec设置创建容器的信息。
# tomcat-deploy.yml具体内容
apiVersion: extensions/v1beta1  #解析yml文件的api的版本号,不同的api版本对解析规则略有不同
kind: Deployment #种类,说明yml文件用途,用于部署
metadata: #元数据
  name: tomcat-deploy #部署文件名称,这个名字代表了我们要部署tomcat集群
spec: #用来设置详细内容
  replicas: 2 #  部署2个tomcat pod
  template: #部署里面的详细设置
    metadata: # 元数据
      labels: # 标签
        app: tomcat-clustor #是pod的名称
    spec:
      containers: # 容器设置
      - name: tomcat-cluster # -代表集合,通常name和上面的app保持一致
        image: tomcat:latest # 镜像来源
        ports: # 端口
        - containerPort: 8080 #容器内部对外部暴露的端口,这个端口和镜像的端口保持一致
        

1使用kubectl create -f . /tomcat-deploy.yml创建,部署创建完成;

2使用kubectl get deployment 查看部署;

3.kubectl get pod -o wide查看pod

kubectl describe pod pod名称 查看pod详细信息

4.kubectl logs -f pod 名称 查看日志

第六节

NodePort方式外部访问tomcat集群

img

如何从外部访问tomcat集群呢,前面我们安装两个pod名字是Tomcat Cluster,这两个pod又通过k8s部署了两个tomcat容器,端口是8080。

有两个tomcat pod,当前tomcat pod只设置了容器对外暴露的端口,没有设置容器从面访问的设置,只能从内部访问,如何从外部访问呢,涉及到服务这个概念

service服务

service服务用语对外暴露应用的组件

思路

我们在宿主机Master上,也创建一个pod,安装一个service服务名字就叫tomcat-service,这个服务作为统一入口,将端口8000和两个node节点8080做映射(8000和8080这些端口有k8s统一管理,设置好绑定关系就可以了,底层会自动设置好网络通信),让请求从master进入,还有一个好处,可以设置外侧宿主机对外暴露的端口(通过宿主机Ip+内部的端口号,也能访问到内部服务。不推荐,因为直接指明节点ip后,负载均衡就失效了),通过负载落到node上。这么做和Nginx的负载均衡做法很像。

准备Service 配置文件

在master主节点下

mkdir tomcat-service

cd tomcat-service

编写服务的yml目录

vim tomcat-service.yml

# tomcat-service.yml具体内容
apiVersion: extensions/v1beta1  #解析yml文件的api的版本号,不同的api版本对解析规则略有不同
kind: Service #种类,说明yml文件用途,用于服务
metadata: #元数据
  name: tomcat-service #部署文件名称,这个名字代表了我们服务名字是tomcat-service,这个名称是用于显示的
  labels: # 标签,因为Service服务也是Pod,只要是pod就可设置标签,通过标签设置别名
    app:tomcat-service # 这个名称是用于后期对pod进行选择的时候会用到
spec: #用来设置详细内容
  type: NodePort # 节点端口,用于在每个节点中开辟一个端口和内侧tomcat进行端点映射
  selector: #选择器
    app: tomcat-cluster # 部署时所设置的"label:app:tomcat-cluster"
  ports: # 端口, master的8000会映射到两个node节点的32500	
  - port: 8000 # 设置了服务接受数据的端口
  	targetPort: 8080 # 目标端口,容器内部对外暴露的端口
  	nodePort: 32500 # 每一个节点对外暴露32500,并与容器内部8080进行映射
        
创建服务

1.kubectl create -f ./tomcat-service.yml # 创建

2.kubectl get service # 检查下,获取所有服务列表查看服务状态

3.kubectl describe service tomcat-service # 查看service详细信息

基于NFS协议实现集群文件共享
NFS

Network File System(NFS) 是由SUN公司研制的文件传输协议。NFS主要是采用远程调用RPC机制实现。

安装NFS

在文件的提供方安装

yum install -y nfs-utils rpcbind # nfs-utils 是rpc工具集, rpcbind是RPC的底层支持
集群文件共享的问题

首先,在以前情况下,假设在k8s集群环境下,不同节点不同pod,每个pod里面都有tomcat oa系统/tomcat/webapps/oa,只要oa里面的文件产生变化,需要对每个容器中的文件进行修改,这是一件很麻烦的事情,怎么解决呢img

思路

1.在k8s中额外增加一个节点NODE3,它的职责只有一个提供共享文件,也就是文件共享服务器,这个服务器下的目录 /www-data/ ,通过NFS协议挂载到其他节点的自定义/mnt目录下,2.在内侧Tomcat容器在部署的时候,不在是把oa文件夹复制到webapps下面,而是指明一个挂载点,进行绑定 。

这样,在访问 /mnt在对它里面的文件进行操作的时候,本质就是操作/www-data/下的文件。这样可以一次性解决所有容器之间的共享问题。

第一步,提供NFS服务并设置共享目录和挂载点
文件服提供方

在master上安装nfs工具和nfs协议绑定,yum install -y nfs-utils rpcbind,安装成功后,主服务master具备了nfs职能,现在master它也是一个文件共享服务器,是NODE1和NODE2文件来源所在。

#未来集群所有共享的web应用放在 www-data目录
cd /usr/local & mkdir data & cd data
mkdir www-data & cd www-data
#设置哪个文件对外暴露和共享
##nfs允许挂载的目录及权限,在文件/etc/exports中进行定义
vim /etc/exports 
# /etc/exports具体内容
## 目录 ;ip; 24是掩码;rw表示读写,sync表示同步操作  
/usr/local/data/www-data 192.168.163.132/24(rw, sync)

启动服务

systemctl start nfs.service #启动nfs服务

systemctl enable nfs.service #开机启动nfs服务

systemctl start rpcbind.service # 对应rpcbind绑定服务

systemctl enable nfs.service #开机启动nfs服务

查看一下

exportfs ,看到下面内容,配置成功了

/usr/local/data/www-data 
				192.168.163.132/24
具体使用文件服务的节点NODE1/NODE2

1.使用方需要安装nfs-utils 工具集,yum install -y nfs-utils

2.查看master共享路径,使用命令 showmount show -e 192.168.163.132

# 共享文件夹路径
/usr/local/data/www-data 192.168.163.132/24

3.挂载, mount 192.168.163.132:/usr/local/data/www-data /mnt,远程主机上的目录挂载到了本机/mnt下

4.设置开机启动

systemctl enable nfs.service #开机启动nfs服务

第二步 集群文件共享

目标:将每个Pod中的tomcat容器webapps中的内容映射到 每个节点的/mnt

路径下

1.准备工作,删除原有的名字为tomcat-deploy部署,重新部署

# 在master节点下,查看下之前已经部署过的信息
kubectl get deloyment
# 删除原有的名字为tomcat-deploy部署,重新部署;
##删除部署后,对应的pod也会删除,但是service不会被删除
kubectl delete deployment tomcat-deploy
# 删除tomcat-service
kubectl delete service tomcat-service

2.切换到/k8s/tomcat/deploy目录下

vim tomcat-deploy.yml中,在spec:template:spec下面增加配置数据卷volumes,在spec:template:spec:containers下增加挂载点volumeMounts

#tomcat-deploy.yml具体内容
apiVersion: extensions/v1beta1  #解析yml文件的api的版本号,不同的api版本对解析规则略有不同
kind: Deployment #种类,说明yml文件用途,用于部署
metadata: #元数据
  name: tomcat-deploy #部署文件名称,这个名字代表了我们要部署tomcat集群
spec: #用来设置详细内容
  replicas: 2 #  部署2个tomcat pod
  template: #部署里面的详细设置
    metadata: # 元数据
      labels: # 标签
        app: tomcat-clustor #是pod的名称
    spec:
      volumes: # 挂载数据卷
      - name: web-app # 数据卷别名
        hostPath:#设置宿主机原始目录
          path: /mnt # 再部署的时候,每个节点都有一个mnt目录需要挂载
      containers: # 容器设置
      - name: tomcat-cluster # -代表集合,通常name和上面的app保持一致
        image: tomcat:latest # 镜像来源
        ports: # 端口
        - containerPort: 8080 #容器内部对外部暴露的端口,这个端口和镜像的端口保持一致
        volumeMounts: # 挂载点
        - name: webapp #和数据卷中的name保持一致,前后呼应
        mountPath: /usr/local/tomcat/webapps # 挂载地址,k8s在进行pod构建的时候,利用设置好的/mnt 挂载到 /usr/local/tomcat/webapps 目录下

3.重新创建部署

kubectl create -f . /tomcat-deploy.yml创建完成后,通过命令kubectl get deployment 检查部署情况,通过命令 kubectl get pod -o wide 发现NODE节点上的pod也都正常运行了

4.检查是否生效

方案一:进入node节点名为tomcat的docker容器内部中,检查webapps目录下文件是否随master主节点修改/mnt目录下文件变化而变化

方案二:在master主节点上, kubectl exec -it pod名称 /bin/bash,会自动进入选中的pod名称的从节点tomcat容器下

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值