【机器学习】神经网络介绍

本文介绍了神经网络的基础,包括神经元模型、激活函数、感知机与多层网络,特别是误差反向传播算法。讨论了Sigmoid函数作为激活函数的作用,并指出多层神经网络能够以任意精度逼近任意复杂度的连续函数,但也可能遇到过拟合问题,可以通过早停和正则化策略来缓解。最后,探讨了为什么选择梯度下降法作为参数优化方法。
摘要由CSDN通过智能技术生成

【深度学习】神经网络介绍

   1 神经元

   2 激活函数

   3 感知机与多层网络

   4 误差反向传播

 

参考:周志华《机器学习》

 

        "神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应" [Kohonen, 1988] .

1.神经元模型

    神经网络中最基本的成分是神经元 (neuron)模型即上述中提到的"简单单元"。在生物神经网络中,每个神经元与其他神经元相连,当它"兴奋"时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位。如果某神经元的电位超过了一个"阔值"(threshold) , 那么它就会被激活"兴奋 "起来,向其他神经元发送化学物质。

    现在常用的是:M-P神经元模型。在这个模型中,神经元接收到来自n个其他神经元传递过来的输入信号。这些输入信号通过带权重的连( connection)进行传,神经接收到的总输入值将与神经元阀值行比较,然后通过"激活函数" (activation function) 处理以产生神经元的输出。

      

    注意,每层有10 个神经元,两两连接,则有100个参数,其中90个连接权和10个阈值。

2.激活函数

    理想中的激活函数是图5.2(a)所示阶跃函数,它将输入值映射为输出值01显然,"1"对应于神经元兴奋,"0"对应于神经元抑制。然而,阶跃函数具有不连续、不光滑等不太好的性质,因此实际常用Sigmoid函数作为激活函数。典型的 Sigmoid 函数如图5.2(b) 所示,它把可能在较大范围内变化的输入值挤压到 (0,1) 输出值范围内,因此有时也称为 "挤压函数" (squashing function)。

3.感知机与多层神经网络

    感知机</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值