系列文章目录
跟李沐学AI:chapter_linear-networks\linear-regression-scratch.ipynb下的笔记以及课后练习
一、笔记
1.关于:torch.matmul()
当输入有多维时,把多出的一维作为batch提出来,其他部分做矩阵乘法。
下面看一个两个都是3维的例子:
2.Tensor与行向量做*乘法
其结果是每列乘以行向量对应列的值(相当于把行向量的行复制,成为与lhs维度相同的Tensor). 注意此时要求Tensor的列数与行向量的列数相等。
3.with torch.no_grad的作用
在该模块下,所有计算得出的tensor的requires_grad都自动设置为False。
二、课后作业
1.题目
1.为什么在squared_loss函数中需要使用reshape函数?
2.解答
一维减去二维会broadcast,而y_hat的shape是(1000,1),y的shape应与之保持一致(要么两个都是一维,长度为1000,要么都是(1000,1))