- 博客(2)
- 资源 (10)
- 收藏
- 关注
转载 PyTorch 的 Autograd
PyTorch 作为一个深度学习平台,在深度学习任务中比 NumPy 这个科学计算库强在哪里呢?我觉得一是 PyTorch 提供了自动求导机制,二是对 GPU 的支持。由此可见,自动求导 (autograd) 是 PyTorch,乃至其他大部分深度学习框架中的重要组成部分。了解自动求导背后的原理和规则,对我们写出一个更干净整洁甚至更高效的 PyTorch 代码是十分重要的。但是,现在已经有了很多封装好的 API,我们在写一个自己的网络的时候,可能几乎都不用去注意求导这些问题,因为这些 API 已经在私底
2021-02-05 10:59:23 294
转载 浅谈 PyTorch 中的 tensor 及使用
这篇文章主要是围绕 PyTorch 中的 tensor 展开的,讨论了张量的求导机制,在不同设备之间的转换,神经网络中权重的更新等内容。面向的读者是使用过 PyTorch 一段时间的用户。本文中的代码例子基于 Python 3 和 PyTorch 1.1,如果文章中有错误或者没有说明白的地方,欢迎在评论区指正和讨论。文章具体内容分为以下6个部分:tensor.requires_grad torch.no_grad() 反向传播及网络的更新 tensor.detach() CPU and GP
2021-02-05 09:24:31 963
DCT_base.m
2019-12-09
VS2017+dlib
2019-08-12
cmakeOpencv3.4.rar
2019-08-11
cmakeopencv320.zip
2019-08-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人