GPU共享调度器扩展器使用指南
gpushare-scheduler-extender项目地址:https://gitcode.com/gh_mirrors/gp/gpushare-scheduler-extender
项目介绍
GPU共享调度器扩展器(GPU Sharing Scheduler Extender)是一个为Kubernetes集群设计的开源项目,旨在提高Nvidia GPU的利用率。通过允许在同一Nvidia GPU设备上部署多个共享GPU的Pod,该项目解决了如何在Pod之间共享GPU的问题。它基于调度器扩展器和设备插件机制,使得在Kubernetes环境中复用这一解决方案变得容易。
项目快速启动
前提条件
- Kubernetes 1.11+
- Golang 1.19+
- NVIDIA驱动版本 >= 361.93
- Nvidia-docker版本 > 2.0
- Docker配置为使用Nvidia作为默认运行时
安装步骤
-
克隆项目仓库
git clone https://github.com/AliyunContainerService/gpushare-scheduler-extender.git cd gpushare-scheduler-extender
-
构建镜像
make build-image
-
部署设备插件
git clone https://github.com/AliyunContainerService/gpushare-device-plugin.git cd gpushare-device-plugin docker build -t cheyang/gpushare-device-plugin .
-
安装Kubectl扩展
mkdir -p $GOPATH/src/github.com/AliyunContainerService cd $GOPATH/src/github.com/AliyunContainerService git clone https://github.com/AliyunContainerService/gpushare-device-plugin.git cd gpushare-device-plugin go build -o $GOPATH/bin/kubectl-inspect-gpushare-v2 cmd/inspect/*
应用案例和最佳实践
案例1:部署多个共享GPU的Pod并以binpack方式调度到同一GPU设备上
- 描述如何配置和部署多个需要共享GPU资源的Pod,并确保它们以最佳方式(如binpack)被调度到同一GPU设备上。
案例2:避免GPU内存碎片化
- 解释如何通过合理的资源分配和调度策略,避免GPU内存的碎片化,从而提高整体GPU的利用率和性能。
典型生态项目
- gpushare-device-plugin: 这是一个与GPU共享调度器扩展器配合使用的设备插件,负责管理和分配GPU资源。
- Nvidia Docker2: 该项目是GPU共享解决方案的基础,提供了GPU资源管理和分配的核心功能。
通过这些项目的协同工作,可以实现高效的GPU资源共享和管理,适用于需要高性能计算的多种场景。
gpushare-scheduler-extender项目地址:https://gitcode.com/gh_mirrors/gp/gpushare-scheduler-extender