K8s资源定义haproxy

K8s资源定义haproxy
先提前做出两个运行httpd程序的pod,其中默认的index.html文件不一样
httpd1

[root@master opt]# vim httpd1/Dockerfile

FROM busybox
  
RUN mkdir /data && echo 'nihao' > /data/index.html

CMD ["/bin/httpd","-f","-h","/data"]
[root@master opt]# docker build -t yanghaixx/httpd1:latest httpd1
Sending build context to Docker daemon  2.048kB
Step 1/3 : FROM busybox
latest: Pulling from library/busybox
3cb635b06aa2: Pull complete 
Digest: sha256:b5cfd4befc119a590ca1a81d6bb0fa1fb19f1fbebd0397f25fae164abe1e8a6a
Status: Downloaded newer image for busybox:latest

httpd2

[root@master opt]# vim httpd2/Dockerfile
FROM busybox
  
RUN mkdir /data && echo 'wuhu' > /data/index.html

CMD ["/bin/httpd","-f","-h","/data"]        
[root@master opt]# docker build -t yanghaixx/httpd2:latest httpd2
Sending build context to Docker daemon  2.048kB
Step 1/3 : FROM busybox
 ---> ffe9d497c324
Step 2/3 : RUN mkdir /data && echo 'wuhu' > /data/index.html
 ---> Running in aa279810c655                                   

用这两个镜像做出两个pod并做出两个service

[root@master mainfest]# vim httpd1.yaml
---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: httpd1
  name: httpd1
spec:
  replicas: 1
  selector:
    matchLabels:
      app: httpd1
  template:
    metadata:
      labels:
        app: httpd1
    spec:
      containers:
           - image: yanghaixx/httpd1:latest
             name: httpd1
---
apiVersion: v1
kind: Service
metadata:
  name: httpd1
spec:
  ports:
  - port: 80
    targetPort: 80
  selector:
    app: httpd1
    [root@master mainfest]# kubectl create -f httpd1.yaml 
deployment.apps/httpd1 created
service/httpd1 created

httpd2

[root@master mainfest]# vi httpd2.yaml
---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: httpd2
  name: httpd2
spec:
  replicas: 1
  selector:
    matchLabels:
      app: httpd2
  template:
    metadata:
      labels:
        app: httpd2
    spec:
      containers:
      - image: yanghaixx/httpd2:latest
        name: httpd2
---
apiVersion: v1
kind: Service
metadata:
  name: httpd2
spec:
  ports:
  - port: 80
    targetPort: 80
  selector:
    app: httpd2
[root@master mainfest]# kubectl create -f httpd2.yaml 
deployment.apps/httpd2 created
service/httpd2 created

查看pod和service

[root@master mainfest]# kubectl get pod,svc
NAME                           READY   STATUS    RESTARTS   AGE
pod/httpd1-79cd6b6b9b-cdvcf    1/1     Running   0          7m
pod/httpd2-657ddc4ddc-vjdmf    1/1     Running   0          10m

NAME                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
service/httpd1       ClusterIP   10.107.234.122   <none>        80/TCP         9m24s
service/httpd2       ClusterIP   10.108.239.127   <none>        80/TCP         64m
service/kubernetes   ClusterIP   10.96.0.1        <none>        443/TCP        3d4h

编写写资源清单定义haproxy

[root@master mainfest]# vi haproxy.yaml 
---
apiVersion: apps/v1
kind: deployment
metadata:
  labels:
    app: haproxy
    name: haproxy
spec:
  replicas: 1
  selector:
    matchLabels:
      app: haproxy
  template:
    metadate:
      labels:
        app: haproxy
    spec:
      containers:
      - image: yanghaixx/haproxy:v1-alpine
        name: haproxy
        env:
        - name: RSIP
          value: "10.107.234.122 10.108.239.127"
---
apiVersion: v1
kind: Service
metadata:
  name: haproxy
spec:
  ports:
  - port: 80
    target: 80
  selector:
    app: haproxy
  type: NodePort

测试

[root@master mainfest]# kubectl get pod,svc
NAME                           READY   STATUS    RESTARTS   AGE
pod/haproxy-7b5bdbcb89-efvfd   1/1     Running   0          8m31ss
pod/httpd1-79cd6b6b9b-cdvcf    1/1     Running   0          14m
pod/httpd2-657ddc4ddc-vjdmf   1/1     Running   0          17m

NAME                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
service/haproxy      NodePort    10.97.133.221    <none>        80:31540/TCP   7m48s
service/httpd1       ClusterIP   10.107.234.122   <none>        80/TCP         10m
service/httpd2       ClusterIP   10.108.239.127   <none>        80/TCP         65m
service/kubernetes   ClusterIP   10.96.0.1        <none>        443/TCP        3d4h

[root@master mainfest]# curl 192.168.197.131:31540
wuhu
[root@master mainfest]# curl 192.168.197.131:31540
nihao
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本火锅店点餐系统采用Java语言和Vue技术,框架采用SSM,搭配Mysql数据库,运行在Idea里,采用小程序模式。本火锅店点餐系统提供管理员、用户两种角色的服务。总的功能包括菜品的查询、菜品的购买、餐桌预定和订单管理。本系统可以帮助管理员更新菜品信息和管理订单信息,帮助用户实现在线的点餐方式,并可以实现餐桌预定。本系统采用成熟技术开发可以完成点餐管理的相关工作。 本系统的功能围绕用户、管理员两种权限设计。根据不同权限的不同需求设计出更符合用户要求的功能。本系统中管理员主要负责审核管理用户,发布分享新的菜品,审核用户的订餐信息和餐桌预定信息等,用户可以对需要的菜品进行购买、预定餐桌等。用户可以管理个人资料、查询菜品、在线点餐和预定餐桌、管理订单等,用户的个人资料是由管理员添加用户资料时产生,用户的订单内容由用户在购买菜品时产生,用户预定信息由用户在预定餐桌操作时产生。 本系统的功能设计为管理员、用户两部分。管理员为菜品管理、菜品分类管理、用户管理、订单管理等,用户的功能为查询菜品,在线点餐、预定餐桌、管理个人信息等。 管理员负责用户信息的删除和管理,用户的姓名和手机号都可以由管理员在此功能里看到。管理员可以对菜品的信息进行管理、审核。本功能可以实现菜品的定时更新和审核管理。本功能包括查询餐桌,也可以发布新的餐桌信息。管理员可以查询已预定的餐桌,并进行审核。管理员可以管理公告和系统的轮播图,可以安排活动。管理员可以对个人的资料进行修改和管理,管理员还可以在本功能里修改密码。管理员可以查询用户的订单,并完成菜品的安排。 当用户登录进系统后可以修改自己的资料,可以使自己信息的保持正确性。还可以修改密码。用户可以浏览所有的菜品,可以查看详细的菜品内容,也可以进行菜品的点餐。在本功能里用户可以进行点餐。用户可以浏览没有预定出去的餐桌,选择合适的餐桌可以进行预定。用户可以管理购物车里的菜品。用户可以管理自己的订单,在订单管理界面里也可以进行查询操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值