【复旦邱锡鹏教授《神经网络与深度学习公开课》笔记】神经网络

人工神经元

在这里插入图片描述

如上图表示对多个神经元接受的信号进行加权求和,结果通过激活函数计算得到一个值,通过设置阈值来表示对应的具体含义(比如大于0.5表示神经元兴奋、小于表明神经元不兴奋)

人工神经网络

大量人工神经元以及它们之间的有向连接构成人工神经网络,这种许多神经元组成的信息处理网络具有并行分布结构。对人工神经网络主要考虑:

  • 神经元激活规则:神经元输入输出间的映射关系(即激活函数的考虑,一般为非线性函数)
  • 网络拓扑结构:不同神经元之间的连接关系
  • 学习算法:通过训练数据来学习神经网络的参数(比如机器学习中的梯度下降过程)

人工神经网络基本结构分为三类:

  • 前馈网络:网络中的信息从前向后单向传递
  • 记忆网络:网络中存在反馈,神经元在不同时刻有不同状态/记忆
  • 图网络:网络结构由一个额外的图来确定,连接更加灵活,更具一般性

在这里插入图片描述

大多数的人工神经网络都是三者的复合结构

一个前馈深度学习神经网络的数学描述示例

在这里插入图片描述

x x x代表输入层, f 1 f^1 f1 f 2 f^2 f2为隐藏层, f 3 f^3 f3为输出层(分类器),其中隐藏层是表示学习,输出层为浅层学习,这是一个端到端的前馈深度学习

用神经网络贡献度分配问题

偏导数:对于函数 y = f ( x ) y=f(x) y=f(x),偏导数表示当 x x x发生变化时,对y的影响大小。从几何上看,即函数在任意点的斜率

在这里插入图片描述

x x x做扰动( Δ x \Delta{x} Δx)后看 y y y的变化( Δ y \Delta{y} Δy),表示 x x x y y y的影响有多大

贡献度

∂ y ∂ W ( l ) = y ( W ( l ) + Δ W ) − y ( W ( l ) ) Δ W \frac{\partial{y}}{\partial{W^{(l)}}}=\frac{y(W^{(l)}+\Delta{W})-y(W^{(l)})}{\Delta{W}} W(l)y=ΔWy(W(l)+ΔW)y(W(l))
其中 y y y表示神经网络的输出, W ( l ) W^{(l)} W(l)表示第 l l l层的参数,后面是偏导数,对 W W W做扰动( Δ W \Delta{W} ΔW)后 y y y的变化( y ( W ( l ) + Δ W ) − y ( W ( l ) ) y(W^{(l)}+\Delta{W})-y(W^{(l)}) y(W(l)+ΔW)y(W(l))

通过计算每一层结果对最终结果的贡献度,可以最终确定每个层的贡献度分配

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Don't move

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值