深度学习知识点总结

本文总结了深度学习中的欠拟合和过拟合问题。欠拟合可以通过增大模型容量或增加训练次数来解决,而过拟合可通过数据增强、参数正则化、提前终止、参数共享、集成方法(如dropout和Bagging)等方法缓解。L1和L2正则化是常用的防止过拟合的技术,dropout通过随机丢弃神经元实现模型集成,有助于减少神经元间的共适应关系。
摘要由CSDN通过智能技术生成

1.欠拟合,过拟合和模型的容量

1.1基本概念

机器学习的目标是使算法在“先前未观测到的新输入上”表现良好,这种能力成为泛化。通常我们希望算法在测试集上具有小的泛化误差。这个泛化误差体现在测试集上的测试误差。

前提:我们的假设是每个数据集中的样本都是相互独立的,并且测试集和训练集是同分布的。

机器学习算法中,我们的处理过程为:

(1)降低训练误差;

(2)缩小训练误差和测试误差的差距;

欠拟合:模型没有获得足够低的训练误差;

过拟合:训练误差和测试误差的差距太大。

模型的容量:指其拟合各种函数的能力。容量低的模型很难拟合训练集;容量高的模型可能会过拟合,因为记住了不适用于测试集的训练集性质。

“奥卡姆剃刀”:在同样能够解释已知观测现象的假设中,选择最简单的那个。

偏差:偏差度量了偏离真实函数或者参数的误差期望。

方差:方差度量了数据上任意特定采样可能导致的估计期望的偏差。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值