相比使用python自定义操作,通过扩展pytorch,使用c++实现这些自定义操作要快得多。为了加速,我们有时候甚至需要将整个python代码全部转化为c++代码。
这篇文章写的很不错,强烈推荐使用Aten pybind11 Cuda 扩展pytorch卷积操作,适合新手入门。
https://oldpan.me/archives/pytorch-cuda-c-plus-plus
但是需要注意的是,pytorch中的常规操作已经被优化过了,且这些操作的底层还是使用c++实现的,所以如果不是为了实现自定义的操作,pytorch官方不建议使用c++扩展。