2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法

文章探讨了神经网络的反向传播计算方法,强调了神经元数量、正则化和激活函数(如sigmoid与ReLU)对结果的影响。此外,还讨论了解决过拟合的策略,包括数据预处理、参数初始化以及dropout技术的应用。
摘要由CSDN通过智能技术生成

返回传播计算方法

实际上计算L(损失值)的时候并不是只是拿一组w来进行计算,而是由多组w进行相对应的计算,而每一组关注的重心是不一样的,举个例子,比如猫这个组,它可以由三组w进行相对应的计算再相加,第一组关注猫的胡子,第二组关注的是猫,而非背景板,第三组关注猫的眼睛,对于其的w更大。

梯度是一步步进行传播的。
在这里插入图片描述

神经网络整体架构(暂时留存,等后面补)

在这里插入图片描述
理解此图,正确说明此图

在这里插入图片描述

神经元个数对结果的影响

神经元个数越多,对于其结果的拟合程度越好。但是有时候却需要关注的是不需要那么高的拟合程度。

正则化与激活函数

惩罚力度越小越拟合。但容易出现极端数据。
在这里插入图片描述
而参数数量实际上也可以近似当作神经元个数,即参数数量越大,拟合程度越好。

激活函数(神经网络经过一些权重参数计算之后,需要的非线性计算变化):
在这里插入图片描述
现在已经不太使用sigmoid激活函数了,主要是因为在趋近于一的情况下,会导致其梯度为零,也即导致后续的求偏导的时候的计算也出现全部都是0的情况,与实际不一致。

现在百分之95以上都是使用relu激活函数。

神经网络过拟合解决方法

数据预处理:
不同的数据预处理会使得模型效果发生很大的差异。
在这里插入图片描述
参数初始化:
通常我们使用随机策略来进行参数初始化(0-1之间的数据)。

过拟合解决方法:

  1. 正则化
  2. DROP-OUT
    在这里插入图片描述
    什么意思呢:就是在训练的过程中,随机杀死几个神经元点,不去使用它进行训练。然后在上万次的训练过程中,可以做到参数接近,而且减少过拟合现象。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值