使用nginx对k8s集群中的service做负载均衡

使用nginx对k8s集群中的service做负载均衡

实验环境

主机IP角色
192.168.164.139master
192.168.164.141node1
192.168.164.142node2
192.168.164.143nginx

资源清单文件

[root@master manifest]# cat test.yml 
---
apiVersion: apps/v1
kind: Deployment 
metadata: 
  name: web
  namespace: default 
spec:
  replicas: 2
  selector: 
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx
        imagePullPolicy: IfNotPresent
        volumeMounts:
        - mountPath: /usr/share/nginx/html
          name: nginx-index
      volumes:
      - name: nginx-index
        hostPath:
          path: /var/www/html

---
apiVersion: v1
kind: Service
metadata:
  name: web
  namespace: default
spec:
  ports: 
  - port: 80
    protocol: TCP
    targetPort: 80
    nodePort: 30000
  selector:
    app: nginx
  type: NodePort

//运行pod
[root@master manifest]# kubectl get pods -o wide
NAME                   READY   STATUS    RESTARTS   AGE     IP            NODE                NOMINATED NODE   READINESS GATES
web-579695c7d4-l2j7s   1/1     Running   0          5m17s   10.244.2.58   node2.example.com   <none>           <none>
web-579695c7d4-p7mzl   1/1     Running   0          4m19s   10.244.1.25   node1.example.com   <none>           <none>

[root@master manifest]# curl 192.168.164.141:30000
hello world
[root@master manifest]# curl 192.168.164.142:30000
hello k8s

nginx调度器

[root@nginx ~]# yum -y install nginx
[root@nginx ~]# vi /etc/nginx/nginx.conf
......
    upstream webservers {
            server 192.168.164.141:30000;
            server 192.168.164.142:30000;
    }
    server{
        listen 8080;
        location / {
            proxy_pass http://webservers;
        }
    }
......
[root@nginx ~]# systemctl start nginx
State  Recv-Q Send-Q Local Address:Port Peer Address:PortProcess 
LISTEN 0      128          0.0.0.0:80        0.0.0.0:*           
LISTEN 0      128          0.0.0.0:8080      0.0.0.0:*           
LISTEN 0      128          0.0.0.0:22        0.0.0.0:*                   
LISTEN 0      128             [::]:80           [::]:*           
LISTEN 0      128             [::]:22           [::]:*  

[root@nginx ~]# curl 192.168.164.143:8080
hello k8s
[root@nginx ~]# curl 192.168.164.143:8080
hello k8s
[root@nginx ~]# curl 192.168.164.143:8080
hello world
[root@nginx ~]# curl 192.168.164.143:8080
hello k8s
[root@nginx ~]# curl 192.168.164.143:8080
hello world
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kubernetes (k8s) 是一个开源的容器编排平台,用于自动化容器化应用程序的部署、扩展和管理。在 k8s 负载均衡是一个核心功能,用于处理多个节点间的流量分发,确保服务的高可用性和性能。以下是 Kubernetes 实现负载均衡的基本方法: 1. **内置服务(Service)**: 使用 k8s 的 `Service` 对象,它可以将流量路由到后端的 pod。服务支持多种类型的负载均衡,如: - **ClusterIP**: 内部 IP,仅对集群内部可见,适合不需要外部访问的应用场景。 - **NodePort**: 配置端口映射,允许从外部直接访问服务。 - **LoadBalancer** 或 **ExternalName**: 如果集群支持云提供商的负载均衡器,可以创建外部负载均衡器来处理流量。 2. **Ingress**: 一个高级别资源,用于定义网络规则并可以关联到多个服务。Ingress 提供了更灵活的配置选项,如路径、SSL/TLS终止等,并可以使用第三方控制器(如 NGINX Ingress Controller)来实现更复杂的负载均衡策略。 3. **Envoy**: 在 Istio 或其他类似的服务网格解决方案,Envoy 作为一个高性能的边缘代理被用作负载均衡器,它能提供细粒度的路由控制和可扩展性。 4. **自定义负载均衡器**: 用户可以通过部署自己的部署或使用 Helm charts 安装第三方负载均衡器,如 HAProxy、Traefik 等。 相关问题--: 1. Kubernetes 的哪些服务类型支持负载均衡? 2. 如何通过 Ingress 实现更复杂的路由策略? 3. Envoy 在 Kubernetes 的角色是什么? 4. Kubernetes 负载均衡如何考虑高可用性?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值