![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 68
朵儿不是暖羊羊
这个作者很懒,什么都没留下…
展开
-
Alexnet 笔记
整体网络结构:5层conv + 3层全连接,池化层使用的是最大池化; relu优势:收敛快,学习速度快 pooling层有重叠:步长小于卷积核大小,为了克服过拟合,因为这样池化层的输出之间有重叠,提升特征的丰富性; 数据扩增: dropout:削弱联合适应性,即防止整个网络会对部分节点过度依赖,这样有助于防止过拟合; top-1 top-5 正文笔记: 关于激活函数:首先为什么要引进原创 2017-09-19 16:00:36 · 337 阅读 · 0 评论 -
VGG网络笔记整理
本文在Alexnet的基础上做了一些改进。主要关注了两个重要点:1.使用更小的卷积核和步长。2.增加网络深度 使用了3*3的更小卷积核,步长为1,最大池化层2*2,滑动步长为2。原创 2017-09-22 10:36:39 · 362 阅读 · 0 评论 -
文本行识别基础概念之补充:HMM&CTC
关于HMM: 1.首先我在知乎上找到了一个非常通俗易懂的关于HMM的解释:如何用简单易懂的例子解释隐马尔可夫模型? - Yang Eninala的回答 - 知乎https://www.zhihu.com/question/20962240/answer/33438846 关于CTC: 我找来了Alex在06年发表的Connectionist Temporal Classi原创 2017-11-08 08:29:56 · 1664 阅读 · 0 评论