神经网络(二)

本文详细介绍了神经网络中的成本函数,包括K类分类问题的神经网络成本函数及其正则化项。解释了如何理解复杂的成本公式,并通过与逻辑回归的对比帮助理解。接着,阐述了向后传播算法的原理,通过反向传播计算各层的误差,进而求解成本函数的微分项。文章还讨论了实践中的注意事项,如参数初始化、数值检验和向量化实现,以确保算法的正确性和效率。
摘要由CSDN通过智能技术生成

成本函数

与线性回归或逻辑回归类似,要使用神经网络对训练数据进行拟合时,需要有成本函数。这样只要针对训练数据,求解成本函数的最小值即可得出神经网络模型参数。

针对 K 类分类问题的神经网络的输出层

hΘ(x)RK;(hΘ(x))k=kthoutput

其中 K 是输出层的的单元个数,K >= 3。因为如果 K < 3 则可以直接用一个单元表示。其成本函数是:

J(Θ)=1m[i=1mk=1Ky(i)klog(h(i)k)+(1y(i)k)log(1h(i)k)]+λ2ml=1L1i=1slj=1sl+1(Θ(l)ji)2

其中 h(i)k=hΘ(x(i))k 是输出层的第 kth 个输出值。 L 是神经网络的层数, sl 是指第 l 层的单元个数。公式的前半部分是未正则化的成本函数,后半部分是正则项,加起来就是正则化的成本公式。注意正则项部分求和时是从 i=1 开始的,即我们不把偏置变量正则化。

!!! warnning “MathJax 的缺陷”
这个公式我写了 20 分钟。它已经复杂到我不得不把 h(i)k 独立写出来了,如果全部写一个公式里,公式将无法正确显示。不服的人可以试看看。

怎么理解神经网络的成本公式

实际上不需要记住这么复杂的公式,但可以结合逻辑回归算法的成本公式来理解神经网络的成本公式。我们知道,神经网络中间层和输出层的每个神经元,都和其前面一层的神经网络的神经元构成逻辑回归关系。这个是神经网络的定义。而逻辑回归算法的成本函数是:

J(θ)=1m[i=1my(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]

跟神经网络成本函数对比,你会发现神经网络输出层有 K 个神经元。所以计算成本函数时,需要把输出层 K 个神经元的逻辑回归成本累加起来。

怎么理解正则项呢?

正则项有三个累加器,最前面那个是层累加器,典型地,对 3 层神经网络模型 L=3 ,正则项简化为:

reg=λ2m
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值