深度学习——超参数设置

一.过拟合
1.定义:给定一个假设空间H,一个假设h属于H,如果存在其他的假设h’属于H,使得在训练样例上h的错误率比h’小,但在整个实例分布上h’比h的错误率小,那么就说假设h过度拟合训练数据。
2.通俗解释
在这里插入图片描述在这里插入图片描述3.常见原因
主要是学习过度和样本特征不均衡,如果细分,还可以包括(并未能列举全部原因):
(1)建模样本选取有误,样本标签错误等,导致选取的样本数据不足以代表预定的分类规则
(2)样本噪音干扰过大,使得机器将学习了噪音,还认为是特征,从而扰乱了预设的分类规则
(3)假设的模型无法合理存在,或者说是假设成立的条件实际并不成立(4)参数太多,模型复杂度过高
(5)对于tree-based模型,如果我们对于其深度与split没有合理的限制,有可能使节点只包含单纯的事件数据(event)或非事件数据(no event),使其虽然可以完美匹配(拟合)训练数据,但是无法适应其他数据集
(6)对于神经网络模型:1).权值学习迭代次数太多(Overtraining),2).BP算法使权值可能收敛过于复杂的决策面。
4.解决方法
->模型上:神经网络:加dropout,batch normalization基于树的模型:限制深度,加入正则化项等设置提前终止条件。
->数据上:增加数据集对数据集进行增强处理(augmentation)。
二、正则化
预备知识(梯度下降法):https://zhuanlan.zhihu.com/p/113714840
1.正则化的目的:为了模型的泛化而添加的一个权值累加项。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值