深度学习论文
終于、
这个作者很懒,什么都没留下…
展开
-
[ICLR16] Net2Net: ACCELERATING LEARNING VIA KNOWLEDGE TRANSFER
我们的Net2Net操作人员已经证明,在某些架构约束下,可以快速地将知识从一个小的神经网络转移到一个大得多的神经网络。实验表明,利用该方法可以训练更大的神经网络,提高图像网络的识别性能。Net2Net现在也可以作为一种技术来更快地探索模型族,从而减少典型机器学习工作流所需的时间。我们希望未来的研究能够发现在神经网络之间传递知识的新方法。我们尤其希望未来的研究能揭示出更多通用的知识转移方法可以快速初始化一个学生网络,该网络的体系结构不受限于类似于教师网络。[ICLR16] Net2Net: ACCELERA转载 2020-08-04 10:55:58 · 152 阅读 · 0 评论 -
[arXiv16] Layer Normalization-层归一化
为了加快神经网络的训练速度,本文引入了层归一化方法。对层归一化与批处理归一化、权值归一化的不变性进行了理论分析。我们证明了层归一化对于每个训练用例的特征移动和缩放是不变的。实验结果表明,该方法对小批量、长序列的递归神经网络最有效。[arXiv16] Layer Normalization...转载 2020-08-04 08:30:05 · 201 阅读 · 0 评论 -
[CS15] Fast and Accurate Recurrent Neural Network Acoustic Models for Speech Recognition-Has¸im Sak
https://blog.csdn.net/weixin_37993251/article/details/88133663转载 2020-08-03 10:20:08 · 163 阅读 · 0 评论 -
[ICML14] Towards End-to-End Speech Recognition with Recurrent Neural Networks-Alex Gravesz
[ICML14] Towards End-to-End Speech Recognition with Recurrent Neural Networks原创 2020-08-03 09:20:37 · 297 阅读 · 0 评论 -
[IEEEAcoustic13] SPEECH RECOGNITION WITH DEEP RECURRENT NEURAL NETWORKS
[IEEEAcoustic13] SPEECH RECOGNITION WITH DEEP RECURRENT NEURAL NETWORKS转载 2020-08-03 08:58:44 · 187 阅读 · 0 评论 -
Deep residual learning for image recognition
https://blog.csdn.net/weixin_37993251/article/details/87902576转载 2020-07-31 11:26:26 · 104 阅读 · 0 评论 -
Going deeper with convolutions
https://blog.csdn.net/weixin_37993251/article/details/87902576转载 2020-07-31 10:50:13 · 97 阅读 · 0 评论 -
Very deep convolutional networks for large-scale image recognition
https://blog.csdn.net/weixin_37993251/article/details/87901934深度是获得好结果的关键转载 2020-07-30 09:55:59 · 87 阅读 · 0 评论 -
ImageNet Classification with Deep Convolutional Neural Networks
前言最近一直比较忙,总算才有时间看点深度学习的论文。这篇论文是大神Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton三人提出的AlexNet深度卷积神经网络,摘得了2010年ILSVRC比赛的桂冠。AlexNet在现在也经常会用到,可以说是很经典的一个CNN框架了。出于学习的目的,一方面可以做笔记,一方面也可以督促自己的学习,我才打算翻译下这篇论文。由于个人水平有限,翻译仅供参考,如有错误,欢迎交流指正。下面是一些可能有用的参考资料:论文原文:htt转载 2020-07-30 09:25:22 · 552 阅读 · 0 评论