SVC 通过label 标签去匹配自己的pod,定义在selector属性中
每个pod 创建时都会指定自己label标签
pod死了一个,deployment新建一个,新的是新IP Nginx中配置的还是老iP
error occur
逐个手动去改配置,?,,更好的方法当然是k8s
SVC 去监管匹配的pod,加入到svc队列中去
svc 专门去做服务发现
SVC只提供4层负载均衡能力
cluserIP
SVC根据标签label去匹配pod
NodePort
负载均衡
LoadBalanccer
云供应商提供负载均衡策略
external name
kube proxy 监控pod信息,写入到iptabels 规则
用户访问svc 访问的是iptables规则
apiserver 监控kube-proxy ,进行服务和端点信息的发现
port : SVC 对外保留端口,targetPort 后端pod 暴露的端口
三个不通的标签labels
通过yaml 创建svc,并查看 其selector 管理的pod
10.99.10.103 下面有三台机器
66 69 70 与下面三个pod 对应
现在访问SVC ,并观察轮询
如果不想要负载均衡
创建无头svc
会被写入到coredns 写入命名规范 svc-name/名称空间名称/集群域名
这里指的是IPtables类型 导入流量到kube-proxy
ip+端口
三个节点都开启了 30715端口
对检索内容进行筛选 ,| grep
负载均衡