复旦大学吴立德《深度学习》课程总结

这篇博客是对复旦大学吴立德教授2013年深度学习课程的总结,涵盖了基础知识、深度学习理论和应用三个方面。课程强调了深度学习在解决大量参数、非凸优化和解释性问题上的挑战,并探讨了CNN、RBM和自编码器等解决方案。重点讲解了前馈神经网络的BP算法、稀疏编码、自编码器的逐层学习方法以及卷积神经网络在图像识别中的应用。
摘要由CSDN通过智能技术生成

对深度学习一直没找到系统的中文资料,在优酷找到了吴立德老师2013年开的深度学习课程视频。花三天简单看了一下,做一个简单总结,供没看过的人士参考要不要看及要看哪几集。此课程一共十四个课时

视频地址:http://www.youku.com/playlist_show/id_21508721.html

Part1 基础知识(1-3节)

1 概述

讲了ML的问题的三个基本方面:数据、模型和准则。准则可以理解为模型的优化目标。

此后全文对每个模型的讲解都是从这三个方面来讲。

深度学习(DL)的最大困难:可训练参数太多,非凸优化,解释困难(可以通过可视化手段改善)。

深度学习成功的运用场景:语音识别和目标识别。在NLP中达到了传统方法的效果。

解决DL学习问题的三种手段:卷积(褶积)神经网络(CNN),限制玻尔兹曼机(RBM)和自动编码机(AE)

2 前馈神经网BP算法

主要讲解了传统神经网络的训练方法,对梯度下降法进行了详细说明。对BP算法进行了细致的推倒。

3 学习优化问题&稀疏编码

前半部学习优化问题主要搭建了多层神经网络的框架。

后半部介绍了稀疏编码的思想和相对应的准则。

Part2 深度学习理论(4-9节)

4 DN&&DL

DN是一个深度的前馈神经网络(FNN)+

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值