![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch学习
重糖爱好者
斯坦福大学计算机视觉博士
展开
-
深度学习秘籍
深度学习武功秘籍batchsize越小其实越好回归 预测的是一个连续 softmax回归是一个多分类问题分类 预测是一个离散值Huber RoBust Loss, 也就是通常所说SmoothL1损失常用命令import torchimport torchvisionfrom torchvision import transformssoftmax 实现:对每个项求e的幂对每一行求和将每一项除以每一行的和logistic 回归最小化损失函数==最原创 2022-12-19 22:47:35 · 325 阅读 · 0 评论 -
从零开始搭建一个关键点检测网络
从零实现关键点检测网络,适合纯小白练手原创 2022-06-09 23:26:53 · 527 阅读 · 2 评论 -
解决训练过程中前一次迭代的loss正常后一次迭代却出现NAN
该怎么办?原创 2021-09-16 21:05:39 · 1240 阅读 · 0 评论 -
Qt /INCLUDE:?warp_size@cuda@at@@YAHXZ
请问有人知道在Qt中怎么加入这行代码吗,感觉成了未解之谜?原创 2021-06-07 19:18:51 · 2049 阅读 · 2 评论 -
Litorch+VS2017+Qt环境配置教程
文章目录环境配置模型转换下载LibtorchVS中环境配置Qt中环境配置成功Reference因为项目需要,要把pytorch模型部署到C++写的软件中,一直感觉深度学习模型工业部署还不成熟,没想到模型落地这块坑这么多。。环境配置Visual Studio >= 2017 (2015试了很久一直报错)CUDA >= 10.2Pytorch 与 Libtorch 版本要一致Qt的话要用MSVC2017编译器模型转换libtorch不依赖于python,python训练好的原创 2021-06-18 22:12:23 · 452 阅读 · 0 评论 -
Transformer加油站!
原创 2021-04-07 21:41:06 · 83 阅读 · 0 评论