深度学习/机器学习入门
文章平均质量分 90
深度学习/机器学习入门
Alkali!
本科:NUAACCST16191
硕士:SEUCSE220
展开
-
2-2 动手学深度学习v2-损失函数-笔记
损失函数,用来衡量预测值和真实值之间的区别。是机器学习里面一个非常重要的概念。三个常用的损失函数。原创 2024-02-05 20:39:30 · 922 阅读 · 0 评论 -
2-1 动手学深度学习v2-Softmax回归-笔记
Softmax回归是一个多类分类模型使用Softmax操作子得到每个类的预测置信度使用交叉熵来衡量预测和标号的区别。原创 2024-02-05 18:07:26 · 1083 阅读 · 0 评论 -
1-4 动手学深度学习v2-线性回归的简洁实现-笔记
nn是神经网络的缩写# nn 中定义了大量的定义好的层 对我们的线性回归来说 等价于它的线性层或者说全连接层net = nn.Sequential(nn.Linear(2,1)) # 唯一需要指定的是 输入的维度是多少 输出的维度是多少# 一般直接用nn.Linear就行(线性回归就是一个简单的单层神经网络),# 但是我们为了后面的方便,把它放到一个容器Sequential里面# 可以理解容器Sequential为 list of layers 我们把层按顺序 一个一个的放到一起。原创 2024-02-05 01:44:29 · 447 阅读 · 0 评论 -
1-3 动手学深度学习v2-线性回归的从零开始实现-笔记
将w随机初始化为一个均值为0,标准差为0.01的,大小为2行1列,requires_grad=True表示我们需要计算梯度# 将偏差b初始化为0,requires_grad=True表示我们需要计算梯度# 线性回归模型# 均方损失# 虽然按理来说,y_hat和y应该元素个数一样,但是可能一个是行向量,一个是列向量,这里把他们统一成一样的,# 这样就可以直接在y和y_hat之间进行元素对元素的操作了,比如计算差值或者逐元素的乘法。# 这里没有作均值 没有除以样本总数。原创 2024-02-04 23:34:17 · 1487 阅读 · 0 评论 -
1-2 动手学深度学习v2-基础优化方法-笔记
梯度下降通过不断沿着反梯度方向更新参数求解小批量随机梯度下降是深度学习默认的求解算法两个重要的超参数是批量大小和学习率。原创 2024-02-04 19:14:27 · 899 阅读 · 0 评论 -
1-1 动手学深度学习v2-线性回归-笔记
线性回归是对nnn维输入的加权,外加偏差(yXwbyXwb使用平方损失来衡量预测值和真实值的差异线性回归有显示解线性回归可以看作单层神经网络,是最简单的神经网络。原创 2024-02-04 17:23:36 · 1407 阅读 · 0 评论