minikube部署情况汇总

环境:

docker version

minikube version

1.minikube默认与宿主机网络桥接模式

 2.minikube的地址查看(该地址只能宿主机能直接访问,其他内网机器不行)

3.minikube以NodePort方式访问服务时通过minikube service 命令查看

 4.想要外部访问里面的服务 用 kubectl port-forward 转发出去(svc和pod皆可透出),

 5.minikube的dns通过 minikube ssh -- cat /etc/resolv.conf 查看(同1)

 6.minikube内的coredns配置

 7.pod内dns配置

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,针对您的需求,我可以给您提供一些具体的方法和步骤。 1. 安装和配置minikube 如果您还没有安装和配置minikube,请参考上面的回答进行安装和配置。 2. 创建Kubernetes集群 在minikube中创建一个Kubernetes集群,您可以使用下面的命令: ``` minikube start --vm-driver=none --extra-config=kubelet.node-labels='nvidia.com/grafana=true' --extra-config=kubelet.reserved-system-memory=1Gi --extra-config=kubelet.authentication-token-webhook=true --extra-config=kubelet.authorization-mode=Webhook --kubernetes-version=v1.21.2 ``` 在上面的命令中,我们设置了一些额外的配置,包括使用none作为虚拟机驱动程序、为kubelet添加nvidia.com/grafana标签、为kubelet保留1GB的系统内存等。 3. 部署AI服务 在Kubernetes集群中部署AI服务,您可以使用Kubernetes的Deployment对象和Service对象。Deployment对象可以定义您的AI服务的副本数和容器镜像等信息,Service对象可以将您的AI服务暴露给外部网络。下面是一个简单的Deployment配置文件的例子: ```yaml apiVersion: apps/v1 kind: Deployment metadata: name: ai-service spec: replicas: 3 selector: matchLabels: app: ai-service template: metadata: labels: app: ai-service spec: containers: - name: ai-container image: your-ai-image:latest ``` 在上面的配置文件中,我们定义了一个名为ai-service的Deployment对象,副本数为3,镜像名称为your-ai-image:latest。 4. 配置GPU支持 为了让Kubernetes集群支持GPU,您需要安装NVIDIA Device Plugin插件。您可以使用下面的命令来安装该插件: ``` kubectl apply -f https://raw.githubusercontent.com/NVIDIA/k8s-device-plugin/v0.9.0/nvidia-device-plugin.yml ``` 安装完成后,您可以使用下面的命令来验证GPU是否已经被正确识别: ``` kubectl describe node <node-name> ``` 在输出中,您应该能够看到类似下面的信息: ``` Capacity: nvidia.com/gpu: 10 Allocatable: nvidia.com/gpu: 10 ``` 表示您的服务器上已经识别出了10张NVIDIA A10显卡。 5. 实现弹性扩缩容和高可用性 为了实现弹性扩缩容和高可用性,您可以使用Kubernetes的Horizontal Pod Autoscaler对象和Deployment对象的replicas字段。Horizontal Pod Autoscaler对象可以根据CPU使用率自动调整Deployment对象的副本数。下面是一个简单的Horizontal Pod Autoscaler配置文件的例子: ```yaml apiVersion: autoscaling/v1 kind: HorizontalPodAutoscaler metadata: name: ai-service-hpa spec: scaleTargetRef: apiVersion: apps/v1 kind: Deployment name: ai-service minReplicas: 1 maxReplicas: 10 targetCPUUtilizationPercentage: 50 ``` 在上面的配置文件中,我们定义了一个名为ai-service-hpa的Horizontal Pod Autoscaler对象,它会自动调整名为ai-service的Deployment对象的副本数,以使CPU使用率保持在50%以下。 6. 总结 通过上述步骤,您已经可以在minikube部署和管理您的AI服务,并实现弹性扩缩容和高可用性。当然,实际情况可能会更加复杂,您可能需要进行更多的配置和调整,以适应您的实际需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值