《动手学》:线性回归
**1.**假如你正在实现一个全连接层,全连接层的输入形状是7×8,输出形状是7 ×1,其中7是批量大小,则权重参数w和偏置参数b的形状分别是____和____
答案:8×1,1×1
2. 课程中的损失函数定义为:
def squared_loss(y_hat, y):
return (y_hat - y.view(y_hat.size())) ** 2 / 2
将返回结果替换为下面的哪一个会导致会导致模型无法训练:(阅读材料:https://pytorch.org/docs/stable/notes/broadcasting.html)
答案: (y_hat - y.view(-1)) ** 2 / 2
解析:y_hat的形状是[n, 1],而y的形状是[n],两者相减得到的结果的形状