周论文分三个部分:第一部分是论文导读,主要阐述论文内容和观点;第二部分是个人总结,也就是自己的看法;第三部分是相关资料,就是扩展和补充的一些知识或者资料。
第一篇论文是DL中一篇经典综述,最近在看Manning的自然语言处理课程,所以近期的论文可能都是课程中提供的论文资料~不说废话了,开始吧 ~
默认缩写
《Deep learning in neural networks: An overview》
论文导读**
本篇论文主要整理了深度可监督学习、不可监督学习、增强学习及计算发展,以及大型深度网络的编码研究。
论文一共分为7个部分:
1、介绍深度学习在神经网络中的应用;
2、神经网络面向事件的表示激活方法(看完返回来检查翻译,感觉翻译的不对)
3、CAPS深度及相关问题
4、再探DL的几个主题
5、由不可监督神经网启发的几种可监督神经网络
6、为增强学习构建的FNNs及RNNs深度网络
7、小结展望
第一部分:介绍深度学习在神经网络中的应用
本部分主要介绍了神经网络的历史发展
- 运用神经元的非线性模型的研究至少可以追溯到二十世纪60年代至70年代;
- 梯度下降法最早用于可监督学习,发展于二十世纪60年代至70年代之间,1981年运用在神经网络上;
- 基于BP的深度网络研究在20世纪80年代遇到瓶颈,直到90