背景:
笔记本:gtx1050ti
服务器:rtx2080ti
深度学习环境:cuda10.0 cudnn7 pytorch1.4
docker:笔记本上docker容器内跑通算法,打包
部署在服务器上
本以为docker将容器打包后,只要服务器上有显卡 有驱动,就可以直接运行算法,没想到还是出现了错误。
具体错误如下:
RuntimeError: CUDA error: no kernel image is available for execution on the device(...........)
错误原因:
因为两台显卡的算力不一致,造成的错误。
解决方法:
清理之前编译的环境,重新编译
rm -rf build
python setup.py clean