c cuda 指定gpu_【AI算力】GPU虚拟化技术对比: vGPU、cGPU和vCUDA

本文探讨了在AI应用场景中,如何通过GPU虚拟化技术提高利用率,尤其是针对cGPU和vCUDA的特性进行分析。cGPU是一种基于内核虚拟GPU隔离的轻量级方案,支持权重抢占调度;vCUDA则是腾讯TKE团队的开源实现,需替换CUDA库,但具有良好的兼容性。
摘要由CSDN通过智能技术生成

背景

AI落地时,在某些场景下AI模型在训练或者是推理时,其算力要求不需要占用整卡的GPU,比如只需要0.5卡GPU即可满足需求。在这种情况下,可以使用GPU虚拟化技术来解决这个问题,将整卡的GPU虚拟化为两个0.5卡的GPU,这样就可以在一张卡上同时跑两个AI训练或者AI推理应用服务,极大压榨算力资源,降低成本。

基本痛点:容器的GPU利用率不够高,特别是推理任务;

为了提高GPU的利用率、避免算力浪费,需要在单个GPU上运行多个容器;

虚拟化技术对比

目前常见的NVIDIA GPU虚拟化技术方案有:NVIDIA GRID(vGPU),NVIDIA MPS,cGPU和vCUDA。其中,在k8s容器上常用的为vCUDA和cGPU方案:坑呀,我不想用图片的,但是直接markdown转不了知乎的表格,有点奇怪...被迫贴图片

NVIDIA提供的两种方案还有一个缺点就是其算力共享是平均共享的,无法按照一定权重分配共享,比如A应用主要0.1算力而b应用分0.9算力。接下来主要讨论AI落地时最实用的cGPU和vCUDA方案,分别介绍其一些特性

cGPU这里说的cGPU为阿里云异构计算cGPU容器技术架构

创新的基于内核虚拟GPU隔离的GPU共享容器方案,实现了用户无感且轻量的GPU虚拟化技术。使用标准的Docker,可以无缝的兼容Kubernetes,做到AI应用无需做任何修改或重编译,可直接运行。物理GPU的资源可以任务划分,包括显存和算力 (实际使用经验,建议以间隔显存大于1G为

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值