- 博客(2)
- 收藏
- 关注
原创 自动求导笔记
torch.dot()它是向量(即只能是一维的张量)的对应位相乘再求和,返回一个tensor数值requires_grad=True 是计算梯度时候存储梯度值用的x.requires_grad_(True) 等价于x=torch.arange(4.0,requires_grad=True)x.grad 就是x的梯度值y.backward()调用反向传播函数后x.grad记录x的梯度,原始值是none在默认情况下,PyTorch会累积梯度,我们需要清除之前的值,即在计算下一个函数前x.grad.z
2022-01-11 16:51:47
483
原创 《动手学深度学习》入门环境安装
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar
2021-11-18 21:38:30
1823
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人