动手学深度学习
文章平均质量分 54
以李沐老师d2l为基本,加入自己的理解
熊熊想读研究生
这个作者很懒,什么都没留下…
展开
-
手动实现MLP(自动求导除外)--理解网络机制
如何实现感知机模型,其实并不难,我们只用到torch中的一个自动求导方法,其余的都可以自己实现原创 2023-11-14 20:22:23 · 246 阅读 · 0 评论 -
SoftMax回归的实现,注重数据维度变化
softmax回归虽然叫回归,但其实是一个分类问题,对输出的每一个值,通过softmax就可以得到一个概率原创 2023-11-11 21:11:16 · 4873 阅读 · 2 评论 -
torch中的自动求导为什么要传个与被求导量同形状的gradient
就可以使用链式法则了(注意J是使用的分子布局,就是优先按照分子的维度排列,换成分母法则的话,下面就不用转置了,其实本质一样)才行,因为pytorch的只支持标量值的求导,而我们一般来说,损失函数loss也确实是个标量。正常来说,对于标量值l,我们可以直接backward()并查看x的grad属性所存储的梯度。-----------------------------我会尽快给出代码。怎么办呢,很遗憾,不支持这么做!,需要我们自己传入一个。但是对于y呢,我要是相对y求导,并查看x的梯度。原创 2023-11-08 17:00:29 · 155 阅读 · 1 评论 -
自动求导——记录一下大佬的链接
True时,它将开始追踪(track)在其上的所有操作。完成计算后,可以调用。互相结合就可以构建一个记录有整个计算过程的非循环图。tensor的.requires_grad。来完成所有梯度计算。是另外一个很重要的类。属性,该属性即创建该。原创 2023-11-07 17:07:20 · 39 阅读 · 0 评论 -
pytorch构建神经网络的每一个环节,线性回归为例
深度学习,pytorch构建网络的每一个环节原创 2023-11-06 10:38:11 · 87 阅读 · 0 评论 -
动手学深度学习 - 手搓线性回归
torch 线性回归 超细注释原创 2023-11-05 16:03:14 · 168 阅读 · 0 评论 -
动手学深度学习 - torch基础
torch python dl 深度学习原创 2023-11-05 15:55:03 · 38 阅读 · 0 评论