神经网络(Neutral Network)

本文介绍了神经网络如何解决监督学习中非线性问题的挑战,特别是当特征数量庞大时,神经网络通过多层非线性变换提供有效解决方案。文章详细阐述了神经网络的基本架构、前馈传播和反向传播算法,并讨论了权重初始化的重要性及梯度检测,为神经网络的学习和实现提供了基础理解。
摘要由CSDN通过智能技术生成

对于监督学习的分类问题,可以使用Logistic回归算法来拟合出适合的曲线,如果直线不能很好地满足需要,还可以将特征进行组合得到新的非线性特征值(如x_{1}^{2},x_{1}x_{2},x_{2}^{2}...),从而拟合出含有许多非线性项的Logistic回归函数。但是,当特征数量非常多时,这种方法就会出现问题,例如,对于一张图片上是否有汽车,需要选取图上的每一个像素点作为特征值,假设图片有2500个像素,对于RGB图像则具有7500个特征值,对于这些特征值进行3次方的组合(x_{1}^{3}, x_{1}^{2}x_{2},x_{1}x_{2}^{2},x_{2}^{3}...),特征数量达到百万量级,导致运算代价变得非常大,而神经网络为这类复杂的非线性假设提供了很好的解决方案。

 

神经网络的基本架构如下图所示,第一层为输入层,最后一层为输出层,中间有若干个隐藏层 ,每两层之间有一个\Theta来进行连接,输出层和隐藏层之间有\Theta^{(1)},隐藏层和输出层之间有\Theta^{(2)}\Theta的维数为s_{l+1}*(s_{l}+1)(其中s_{l}s_{l+1}分别表示\Theta左右相邻层的单元数,不包含偏置单元)。输入层和隐藏层之间的关系为:a^{(2)} = g(\Theta^{(1)}*x),隐藏层与输出层之间的关系为a^{(3)} =g( \Theta^{(2)}*a^{(2)}),其中g表示sigmoid函数。

                     

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值