跟李沐学AI:chapter_linear-networks\linear-regression-scratch.ipynb下的笔记以及课后练习

系列文章目录

跟李沐学AI:chapter_linear-networks\linear-regression-scratch.ipynb下的笔记以及课后练习


一、笔记

在这里插入图片描述
1.关于:torch.matmul()

当输入有多维时,把多出的一维作为batch提出来,其他部分做矩阵乘法。
在这里插入图片描述下面看一个两个都是3维的例子:在这里插入图片描述
2.Tensor与行向量做*乘法
其结果是每列乘以行向量对应列的值(相当于把行向量的行复制,成为与lhs维度相同的Tensor). 注意此时要求Tensor的列数与行向量的列数相等。

3.with torch.no_grad的作用
在这里插入图片描述

在该模块下,所有计算得出的tensor的requires_grad都自动设置为False。

二、课后作业

1.题目

1.为什么在squared_loss函数中需要使用reshape函数?

2.解答

在这里插入图片描述
一维减去二维会broadcast,而y_hat的shape是(1000,1),y的shape应与之保持一致(要么两个都是一维,长度为1000,要么都是(1000,1))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值