自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 缓解过拟合的几个常用方法

过拟合(overfitting),机器学习模型或者是深度学习模型在训练样本中表现得过于优越,导致在验证数据集以及测试数据集中表现不佳。

2024-06-03 20:11:57 557

原创 《动手学深度学习》 第三章 线性神经网络

通常我们会选择非负数作为损失,且数值越小表示损失越小,完美预测时的损失为0。回归问题中最常用的损失函数是平方误差函数。softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。简而言之,就是softmax函数可以把输入映射到0-1的区间,同时归一化保证和为1。交叉熵损失函数主要用于分类问题,判断实际输出与预期输出的差别,也就是交叉熵的值越小,两个概率分布就越接近。回归是变量与变量之间建立的某种联系的表达的一类方法。简而言之,就是n维的输入乘以权重,再加上偏差。

2024-05-06 22:43:37 785 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除