#include <torch/script.h> // One-stop header.
#include <iostream>
#include <memory>
#include <torch/cuda.h>
using namespace std;
int main() {
std::cout << torch::cuda::cudnn_is_available()<<endl;//输出为1,成功
std::cout << torch::cuda::is_available() << endl;//输出为1,成功
}
如果是1则cuda可以使用,如果为0,cuda不可以使用,但是在python中cuda可以使用,是c++运行环境配置问题。
在属性页,链接器-命令行-其他选项加入:
/INCLUDE:?warp_size@cuda@at@@YAHXZ
如果加入这句话后,报这句话无法解析,将你libtorch下lib文件中的.lib的项全部加入属性页的附加依赖项中。