深度学习基础概念
clearch
这个作者很懒,什么都没留下…
展开
-
Batch Normalization(批量归一化)
转载自:http://blog.csdn.net/shuzfan/article/details/50723877原论文下载地址:https://arxiv.org/pdf/1502.03167.pdf1-Motivation作者认为:网络训练过程中参数不断改变导致后续每一层输入的分布也发生变化,而学习的过程又要使每一层适应输入的分布,因此我们不得不降低学习率、小心地初始化。作者将分布发生变化称之...转载 2018-05-10 14:15:09 · 4464 阅读 · 0 评论 -
fine-tuning的作用
查找的一些关于fine-tuning的解释在网络训练中,第一层特征并不特化到任务上,特征是如何注册那个从一般到特殊的,详细参考NIPS2014上Bengio大神的文章:How transferable are features in deep neural networks?(1)fine tuning的过程其实就是用训练好的参数(可以从已训练好的模型中获得)初始化自己的网络,然后用自己的数据接着...原创 2018-05-07 21:22:25 · 25270 阅读 · 8 评论