pytorch
红糖果仁沙琪玛
这个作者很懒,什么都没留下…
展开
-
MNIST数字识别pytorch
【代码】MNIST数字识别pytorch。原创 2023-04-16 21:32:11 · 88 阅读 · 0 评论 -
向量和矩阵的backward
并且y的backward中的参数要和y的维数相同,并且某个变量的梯度是要和自身维数相同的。和backward中的参数张量[[1,2],[2,3]]相乘得到的。乘以backward中的参数张量[[4],[5]]得此结果。只需把m*n维的矩阵x看成m个向量分别作为输入即可。矩阵A和矩阵B相乘后对A求偏导得B,对B求偏导得。backward一下。原创 2023-04-16 15:01:45 · 177 阅读 · 0 评论 -
nn.Linear
view(2,3*3),然后输入进linear中,可以看到输出out维数为(2,9),同时利用parameters查看w和b,最后通过ans = torch.matmul(x1.view(9), w[0]) + b[0]可以发现与out[0][0]相等,从而验证了前面的结论。在神经网络全连接层中常常用到类对象Linear,共有两个参数,分别是输入的特征数量和输出的特征数量,该类会根据输入和输出的维数来创建w矩阵和b,假设输入为(1,n)维x,输出为。原创 2023-04-15 16:33:10 · 665 阅读 · 0 评论 -
pytorch简单线性回归
对于带有扰动的y(x) = y + e ,寻找一条直线能尽可能的反应y,则令y = w*x+b,损失函数。loss = 实际值和预测值的均方根误差。在训练中利用梯度下降法使loss不断减小,便可以最终找到。原创 2023-04-13 19:50:15 · 90 阅读 · 0 评论