过拟合与欠拟合

1、欠拟合

欠拟合:使用的模型的复杂度小于真实模型的复杂度,training loss和accuracy不满足满意度,test的loss和accuracy也比较差

2、过拟合

过拟合:使用模型复杂度大于训练模型复杂度,training的情况很好。test拟合不好。泛化能力不好。

3、检测overfitted:

将数据集划分为train,test,val三个数据集。训练集,验证集,测试集。其中测试集是是客户手中的数据。val set选择什么时候停止。
数据集划分:train划分再进行成为train和val的数据集
train-val-test
在这里插入图片描述
k-fold cross-validation
将数据集划分为训练集和测试集之后,将训练集划分为训练集与验证集,将这部分数据集进行切分组合,选择不同数据做验证集。将数据集划分为n份,其中的n-1份做训练集,剩余的1份做验证集。
在这里插入图片描述
在这里插入图片描述

4、减轻overfitted

regularization(正则化):减小模型复杂度,使得参数变小。在原来loss上面加一个一范数
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5、动量和学习率衰减:

将w梯度方向加上一个向量,靠惯性冲出局部极小值。找到最大的坑。
在这里插入图片描述
在这里插入图片描述
学习率逐渐衰减:由大到小
传一个min监看loss连续多少个epoch没有减少
选择多少个epoch进行更新learning rate
在这里插入图片描述
6、Early Stop,Dropout
Early Stopping:用validation做模型参数选择,在最高点的validation performance(accuracy)提前结束。
在这里插入图片描述
dropout:在训练的时候迫使w减少,有效的w留下且小。w有概率。断掉一些数据输入。在test时候这些断掉的连接层又出现。
在这里插入图片描述
在这里插入图片描述
stochastic gradient descent:符合某一个分布
什么是随机梯度下降?
随机抽取小量样本进行梯度计算。
什么是梯度下降?
使用全部样本进行梯度计算。
深度学习中的体现:
每次只计算一个batch(随机抽取样本中设定的batchsize大小的图片)的梯度,去更新模型权重。

为什么使用随机梯度下降?

  1. 深度学习不是凸优化问题,梯度下降会陷入局部最优,用随机梯度下降跳出局部最优解。
    2.数据量大,不能一次性计算所有训练集的梯度。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习中的过拟合欠拟合是两个常见的问题。 过拟合指的是模型在训练集上表现很好,但在测试集上表现不佳的情况。它表示模型在训练时过度适应了训练数据的噪声和细节,导致在新数据上泛化能力较差。过拟合表现通常是训练集上的损失函数较低,但测试集上的损失函数较高。 欠拟合指的是模型在训练集和测试集上都表现较差的情况,它表示模型无法很好地拟合训练数据。欠拟合的主要原因是模型的复杂度不足或者训练数据量不足。欠拟合表现通常是训练集和测试集上的损失函数都较高。 解决过拟合的常用方法包括: 1. 增加更多的训练数据,以减少模型对于噪声和细节的依赖。 2. 使用正则化技术,如L1正则化、L2正则化等,通过限制模型参数的大小来减少过拟合。 3. 使用早停法(early stopping),即在验证集上监测模型性能,当性能不再提升时停止训练,避免过拟合。 4. 使用Dropout技术,在训练过程中随机丢弃部分节点,减少模型的过度适应。 5. 进行数据增强,如图片旋转、翻转等,生成更多的训练样本,增加模型的泛化能力。 解决欠拟合的常用方法包括: 1. 增加模型的复杂度,如增加网络层数、增加每层的神经元数量等,提升模型的表达能力。 2. 增加特征工程,通过引入更多的特征或变换已有特征来提高模型的性能。 3. 减少正则化力度或者移除正则化操作,以允许模型更好地拟合训练数据。 4. 增加训练轮数和学习率,使模型更充分地学习训练数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值