Softmax&Overfitting&Regulization&Dropout

本文介绍了Softmax函数及其在分类问题中的应用,解释了过拟合现象及其对模型性能的影响。接着,详细阐述了L2和L1正则化的原理,以及它们如何帮助减轻过拟合。最后,探讨了Dropout技术,这是一种结构上的正则化方法,通过随机失活神经元来减少模型的依赖性,从而提高泛化能力。
摘要由CSDN通过智能技术生成

Softmax&Overfitting&Regulization&Dropout

Softmax

另外一种类型的输出层方程:
第一步 (和之前sigmoid一样):
这里写图片描述
第二步: (和之前sigmoid不同): softmax函数
第二步: (和之前sigmoid不同): softmax函数:
Softmax的输出每个值都是大于等于0, 而且总和等于1,所以, 可以认为是概率分布
可以认为输出的是分类等于每个可能分类标签的概率(如 P(a(x)) = 0.8 for MNIST)
如果输出层是sigmod层, 不能默认输出总和为1, 所以不能轻易描述为概率分布
不存在学习慢的问题

overfitting

在训练集上表现良好,但是在测试集上表现不好
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值