正则化及dropout

正则化是防止过拟合的重要手段,包括L1和L2正则化。Dropout是一种特殊的正则化方法,通过在训练过程中随机丢弃一部分神经元来增加模型的鲁棒性。在测试阶段,不再随机丢弃,而是将所有神经元的输出乘以dropout概率。虽然dropout会延长训练时间,但能有效提高模型的泛化能力。
摘要由CSDN通过智能技术生成

综合Stanford university cs231n 课堂、及google 机器学习简介课程,进行了小小的记录~



正则化 regularization

有助于防止出现过拟合

分为:

  • L1 正则化
  • L2 正则化
  • 丢弃正则化
  • 早停法(这不是正式的正则化方法,但可以有效限制过拟合)


dropout 丢弃

在每一次前向传递时,每一层都是计算上一个激活函数的结果乘以权重矩阵,得到下一个激活函数前的结果。然后将这一层算出来的的神经元的数值,随机的选取一部分进行置零。

通常,将正则化率设为0.5

一般是在全连接层使用。有时也用在卷积层,不过,不是随机把某个神经元上激活函数的结果置零,而是随机把整个特征映射置为零。在卷积神经网络里,有一个维度表示通道,可将某几个通道整体置零,而不是某几个元素。

dropout 能够使模型的鲁棒性更好

会使训练的时间增长



p = 0.5        #probability of keeping a unit active. higher = less dropout
def train_step(X):

    "
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值