自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 《动手学深度学习》——3.4softmax回归

回归可以用于预测多少,也可以用于预测“哪一类”。将我们需要预测的类别数据 使用独热编码(one-hot encoding)来存储,独热编码是一个向量,它的分量和类别一样多。类别对应的分量设置为1,其他所有分量设置为0。比如我要预测三个类别猫、鸡、狗,标签y将是一个三维向量, 其中(1,0,0)对应于“猫”、(0,1,0)对应于“鸡”、(0,0,1)对应于“狗”。为了解决线性模型的分类问题,我们需要和输出一样多的仿射函数每个输出对应于它自己的仿射函数。

2024-04-01 17:30:50 339

原创 最大似然估计法

现在使用该函数作为损失函数计算,计算的函数为y'=ax+b,真实的函数为y。现在可以写出通过给定的x观察到特定y的。(通俗的说,就是当y'=y时,需要计算的函数与真实的函数最接近,函数有最大值,所以极大似然估计法就是求P(Y=y|x)的最大值。总是听到别人说最大似然、极大似然估计,自己查过,但事后总是忘记到底是什么意思,还是记录一下,加深印象。因此,在高斯噪声的假设下,最小化均方误差等价于对线性模型的极大似然估计。由于历史原因,优化通常是说最小化而不是最大化。正态分布概率密度函数。

2024-03-25 21:20:26 321

原创 《动手学深度学习》——3.2线性回归

第一节的部分只(1)通过张量来进行数据存储和线性代数;(2)通过自动微分来计算梯度。实际上,由于数据迭代器、损失函数、优化器和神经网络层很常用, 本节就调用深度学习组件库实现线性回归。# nn是神经网络的缩写# 1.生成数据集true_b=2.2# 2.读取数据集"""构造一个PyTorch数据迭代器"""# 3.定义模型# 4.初始化模型参数# 5.定义损失# 6.定义优化算法# 7.训练。

2024-03-07 21:04:02 783

原创 《动手学深度学习》——2.6概率(掷色子)

使用原代码会报错module 'torch' has no attribute 'SymInt',有文章说是d2l中的torch.py文件和其他文件重名,不知道怎么解决,索性不使用这个包了。进行500组实验,每组随机抽1次。cumsum函数:返回沿给定轴的元素的累积和。生成一个1行6列的全1向量,再除以6。然后随机抽到某列,某列数值加1,连续进行5次。每行除以每行的总和,求得概率。

2024-02-22 21:00:09 349

原创 正太分布、均匀分布

若X服从一个为μ、为σ2的正态分布,记为N(μ,σ2)。其为正态分布的μ决定了其位置,其σ决定了分布的幅度。正态分布也叫高斯分布,是常态分布或常态分配,是连续随机变量概率分布的一种,自然界、人类社会、心理和教育中大量现象均按正态形式分布,例如能力的高低,学生成绩的好坏等都属于正态分布。

2023-11-09 14:53:40 289 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除