从pytorch1.5.1开始入手pytorch学习的,真正使用部署时使用的是libtorch1.5.1,主要遇到了三个大坑,一个一个填起来。
1、GPU显存问题
使用动态图,每次传入尺寸不一致时,显存不断递增。
解决办法,第一次传入最大尺寸。
2、内存泄漏问题。
从pytorch1.6.0的bug fix中可以看到主要修复了 RReLU的内存泄漏 和 OpenMP的内存泄漏。
3、因为要使用cuda10.0版本的libtorch库,官方只有cuda10.1的库,所以需要自己重新编译,而且还要修改一些配置才能支持cuda10.0.
4、其他一些小问题就不细说了。