自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 OSError: Unable to open file (unable to open file: name =

报错

2024-04-22 17:09:11 450

转载 动手学深度学习v2-李沐 softmax简洁实现

代码部分。

2023-11-05 12:35:12 53

转载 动手学深度学习v2-李沐 softmax实现

数据传递到模型之前,我们使用reshape函数将每张原始图像展平为向量。我们创建一个数据样本y_hat,其中包含2个样本在3个类别的预测概率, 以及它们对应的标签y。有了y,我们知道在第一个样本中,第一类是正确的预测;而在第二个样本中,第三类是正确的预测。然后使用y作为y_hat中概率的索引, 我们选择第一个样本中第一个类的概率和第二个样本中第三个类的概率。现在我们只需一行代码就可以实现交叉熵损失函数。

2023-11-05 12:30:11 40

转载 动手学深度学习v2-李沐 softmax回归

我们有4个特征和3个可能的输出类别, 我们将需要12个标量来表示权重(带下标的w), 3个标量来表示偏置(带下标的b)。下面我们为每个输入计算三个。一方面,我们没有限制这些输出数字的总和为1。另一方面,根据输入的不同,它们可以为负值。要将输出视为概率,我们必须保证在任何数据上的输出都是非负的且总和为1。此外,我们需要一个训练的目标函数,来激励模型精准地估计概率。softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。我们将使用最大似然估计,这与在线性回归中的方法相同。

2023-11-03 21:25:13 61

转载 动手学深度学习v2-李沐 线性回归简化

nn是神经网络的缩写。

2023-11-02 20:50:40 34

转载 动手学深度学习v2-李沐 线性回归

"""线性回归模型""""""均方损失""""""小批量随机梯度下降"""

2023-11-02 20:46:43 137

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除