pytorch部署c++, 显存优化

问题描述:实际工程化过程中,遇到显存问题,比如A模型占用显存1G,B模型占用显存2G,C模型占用显存3G,共占用6G,模型之间不存在并行推理情况,但是在初始化时候,使用warmup,会占用一定的显存,实际调用模型A+B+C,显存6给G,随着AI功能越来越多部署,会导致显存不足问题。

解决思路:使用完模型推理以后,把GPU缓存释放,同时不需要重新加载模型,可以即时模型推理。

解决方案:使用libtorch自带的缓存清理函数,c10::cuda::CUDACachingAllocator::emptyCache()

亲测有效,需要放在forward之后,或者放在封装调用接口函数之后,或者放在函数return之前。

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值