- 博客(2)
- 收藏
- 关注
原创 pyotrch----梯度下降算法(初学笔记)
这样不方便理解我们按简单的形式理解一下:用函数y来拟合这三个点,点到y的(预测值和目标值的差距)用最小二乘法表示,得到损失函数,单单从误差就可以知道,结果越小越好带入y,化简得到,L是关于b的一个二次函数L越小,说明点和线的距离误差越小,所以图中的极小值点就是最优值,
2024-07-14 18:00:04 1006
原创 pytorch----初识tensor张量(大致了解即可)
要展示代码运行的结果,我们需要运行代码。以下是假设运行上述代码片段可能得到的结果。请注意,这些结果是基于代码逻辑的预期输出,实际运行时可能会因为环境或其他因素有所不同。被沿着第0维(行)分割成两部分,前两行成为第一个张量,最后一行成为第二个张量。被沿着第0维(行)分割成三个部分,每部分包含一行。被沿着第1维(列)分割成三个部分,每部分包含一列。被沿着第0维(行)分割成两部分,每部分包含两行。首先,我们有以下张量。
2024-07-10 16:39:44 800
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人