【复旦邱锡鹏教授《神经网络与深度学习公开课》笔记】深度学习

好的表示学习策略必须具备一定的深度

深度(Depth)
神经网络层级个数,层数越多则越深

深度学习=表示学习+浅层(决策/预测)学习

在这里插入图片描述

这种从原始数据直接产生预测结果,中间特征提取部分不需要人工干预的形式叫做端到端(End-to-End)。大多数的深度学习模型都是端到端模型。

深度学习的难点——贡献度分配问题
深度学习采用的模型一般比较复杂,指样本的原始输入到输出目标之间的数据流经过多个线性或非线性的组件(component)。因为每个组件都会对信息进行加工,并进而影响后续的组件,所以当我们最后得到输出结果时,我们并不清楚其中每个组件的贡献是多少。这个问题叫作贡献度分配问题(Credit Assignment Problem,CAP)1
解决贡献度分配问题的一个好方法就是神经网络。

深度学习的数学描述

在这里插入图片描述
x x x是参数,在浅层学习中,需要人为通过进行特征工程来获得这个代表高层语义的参数。通过不断的嵌套函数,使函数嵌套的更”深“,来实现使用计算机来提取特征,用上图深度学习一行解释, f 1 f^1 f1 f 4 f^4 f4是特征提取函数,通过提取四层函数来不断提取出特征,最后通过 f 5 f^5 f5分类器函数对特征进行分类。

f n ( x ) f^n(x) fn(x)为非线性函数的原因
对于线性函数来说,嵌套的结果仍是线性函数,这样的嵌套没有意义。比如说:
f 1 ( x ) = a 1 x + b 1 , f 2 ( x ) = a 2 x + b 2 f^1(x)=a_1x+b_1,f^2(x)=a_2x+b_2 f1(x)=a1x+b1f2(x)=a2x+b2
f ( x ) = f 2 ( f 1 ( x ) ) = a 2 ( a 1 x + b 1 ) + b 2 = a 2 a 1 x + a 2 b 1 + b 2 = A x + B \begin{aligned} f(x)&=f^2(f^1(x))\\ &=a_2(a_1x+b_1)+b_2\\ &=a_2a_1x+a_2b_1+b_2\\ &=Ax+B \end{aligned} f(x)=f2(f1(x))=a2(a1x+b1)+b2=a2a1x+a2b1+b2=Ax+B
变量与符号无关,可近似认为 A x + b = a 1 x + b 1 Ax+b=a_1x+b_1 Ax+b=a1x+b1,相当于没有嵌套,因此说线性函数的嵌套是没有意义的。


  1. 邱希鹏《神经网络与深度学习》笔记 第一部分 机器学习基础 第1章 绪论 - 知乎 (zhihu.com) ↩︎

  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Don't move

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值