Kubernetes----服务Service简介

【原文链接】

一、Service简介

在Kubernetes中,pod是应用程序的载体,我们可以通过pod的ip来访问应用程序,但是pod的ip地址不是固定的,这就意味着不方便直接采用pod的ip对服务进行访问

为了解决这个问题,Kubernetes提供了Service资源,Service会对提供同一个服务的多个pod进行整合,并且提供一个统一的入口地址,通过访问Service的入口地址就能访问到后面的pod的服务

在这里插入图片描述

Service在很多情况下只是一个概念,真正起作用的其实是kube-proxy服务进程,每个node节点上都运行着一个kube-proxy服务进程,当创建service的时候会通过api-server像etcd写入创建的Service的信息,而kube-proxy会基于监听的机制发现这种Service的变动,然后它会将最新的Service信息转换成对应的访问规则

在这里插入图片描述
通过 ipvsadm -Ln 命令可以查询到当前的kube-proxy转发规则,如下:

[root@master ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  127.0.0.1:30100 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  127.0.0.1:30101 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  172.17.0.1:30100 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  172.17.0.1:30101 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  172.17.0.1:30110 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  172.18.0.1:30080 rr
  -> 10.244.1.78:8443             Masq    1      0          0
TCP  172.18.0.1:30100 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  172.18.0.1:30101 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  172.18.0.1:30110 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  192.168.16.40:30080 rr
  -> 10.244.1.78:8443             Masq    1      0          0
TCP  192.168.16.40:30100 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  192.168.16.40:30101 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  192.168.16.40:30110 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  10.96.0.1:443 rr
  -> 192.168.16.40:6443           Masq    1      1          0
TCP  10.96.0.10:53 rr
  -> 10.244.2.96:53               Masq    1      0          0
  -> 10.244.2.97:53               Masq    1      0          0
TCP  10.96.0.10:9153 rr
  -> 10.244.2.96:9153             Masq    1      0          0
  -> 10.244.2.97:9153             Masq    1      0          0
TCP  10.99.92.60:802 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  10.101.183.26:8000 rr
  -> 10.244.1.79:8000             Masq    1      0          0
TCP  10.101.236.21:443 rr
  -> 192.168.16.42:443            Masq    1      2          0
TCP  10.102.27.124:9898 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  10.103.241.6:443 rr
  -> 10.244.1.78:8443             Masq    1      0          0
TCP  10.109.97.23:9898 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  10.244.0.0:30080 rr
  -> 10.244.1.78:8443             Masq    1      0          0
TCP  10.244.0.0:30100 rr persistent 10800
  -> 10.244.1.244:9898            Masq    1      0          0
  -> 10.244.1.245:9898            Masq    1      0          0
  -> 10.244.1.246:9898            Masq    1      0          0
TCP  10.244.0.0:30101 rr persistent 10800
  -> 10.244.1.14:801              Masq    1      0          0
  -> 10.244.1.15:801              Masq    1      0          0
  -> 10.244.2.220:801             Masq    1      0          0
TCP  10.244.0.0:30110 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  127.0.0.1:30080 rr
  -> 10.244.1.78:8443             Masq    1      0          0
TCP  127.0.0.1:30110 rr persistent 10800
  -> 10.244.1.248:9898            Masq    1      0          0
  -> 10.244.2.215:9898            Masq    1      0          0
  -> 10.244.2.216:9898            Masq    1      0          0
TCP  172.17.0.1:30080 rr
  -> 10.244.1.78:8443             Masq    1      0          0
UDP  10.96.0.10:53 rr
  -> 10.244.2.96:53               Masq    1      0          0
  -> 10.244.2.97:53               Masq    1      0          0
[root@master ~]#

二、Kube-proxy工作模式

2.1 userspace模式

userspace模式下,kube-proxy会为每一个Service创建一个监听端口,发现ClusterIP的请求被iptables规则重定向到kube-proxy监听的端口上,kube-proxy根据LB算法选择一个提供服务的pod并和其建立连接,以将请求转发到Pod上

在此模式下,kube-proxy充当了一个四层负载均衡的角色,由于kube-proxy运行在userspace中,在进行转发处理时会增加内核和用户空间之间的数据拷贝,虽然比较稳定,但是效率比较低
在这里插入图片描述

2.2 iptables模式

iptables模式下,kube-proxy为service后端的每个pod创建对应的iptables规则,直接将向ClusterIP的请求重定向到一个Pod的ip

此模式下kube-proxy下承担四层负载均衡器的角色,只负责创建iptables规则,该模式的优点是较userspace模式效率更高,但不能灵活的LB策略,当后端Pod不可用时也无法进行调试

在这里插入图片描述

2.2 ipvs模式

ipvs模式和iptables模式类似,kube-proxy监控Pod的变化并创建相应的ipvs规则,ipvs相对iptables转发效率更高,除此以外,ipvs支持更多的LB算法,ipvs也是当前默认的推荐的模式

在这里插入图片描述

三、Service资源清单

apiVersion: v1  # 版本
kind: Service  # 类型
metadata:  # 元数据
  name:  service # 资源名称
  namespace:  dev  # 命名空间
spec:  # 描述
  selector: # 标签选择器,用于确定当前service代理哪些pod
    app: nginx
  type: # Service类型,指定service的访问方式
  clusterIP:  # 虚拟服务的IP地址
  sessionAffinity: # session亲和性,支持ClientIP,Node两个选项
  ports:  # 端口信息
    - protocol: TCP
      port:   # Service 端口
      targetPort:  # Pod端口
      nodePort:  # 主机端口

其中type字段可选值有以下几个:

  • ClusterIP:默认值,它是Kubernetes系统自动分配的虚拟IP,只能在集群内部访问
  • NodePort:将Server通过指定的Node上的端口暴露都给外部,通过此方法,就可以在集群外部访问服务
  • LoadBalancer:使用外接负载均衡器完成到服务的负载分发,注意此模式需要外部云环境支持
  • ExternalName:把集群外部的服务引入集群内部,直接使用
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

redrose2100

您的鼓励是我最大的创作动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值