[服务器推理加速工作-6.19~7.1]

本文介绍了如何在Windows和Linux环境下配置Torch C++进行服务器推理,强调了版本匹配、CMake配置以及解决运行时问题。同时提到了从Caffe到PyTorch模型转换的注意事项,包括BN层和LSTM门参数的重组。
摘要由CSDN通过智能技术生成

1. Torch C++

 1.1 Windows运行

注意libtorch和PyTorch的版本要一致,下载对应版本的方法:

GPU版:cu90表示cuda9,1.0.1表示版本号

https://download.pytorch.org/libtorch/cu90/libtorch-win-shared-with-deps-1.0.1.zip

在下载解压以后,利用CMake-gui生成VS2017工程,CMAKE_BUILD_TYPE要选Release才能正常运行

 1.2 Linux运行

和Windows的步骤基本一样,但要注意opencv和gcc版本的问题,libtorch在gcc5以下会遇到std::bad_alloc问题,建议使用GCC5以上,如果遇到imread未定义引用问题,最好用对应版本的gcc编译新的opencv,并在CMakeLists.txt中指定opencv路径

编译如果遇到-ldebug,-loptimized无法找到问题,需要加入第20行

CMakeLists.txt:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值