- 博客(4)
- 收藏
- 关注
原创 文本行识别基础概念之补充:HMM&CTC
关于HMM: 1.首先我在知乎上找到了一个非常通俗易懂的关于HMM的解释:如何用简单易懂的例子解释隐马尔可夫模型? - Yang Eninala的回答 - 知乎https://www.zhihu.com/question/20962240/answer/33438846 关于CTC: 我找来了Alex在06年发表的Connectionist Temporal Classi
2017-11-08 08:29:56 1664
原创 斯坦福机器学习笔记_1
逻辑回归与线性回归: 线性回归主要应用于连续性的模型,逻辑回归主要用于解决分类问题,预测的结果通常是非0即1。 今天的课程主要探讨的是如何预防过拟合。 主要有两种方法: 1)减少特征数目 :通过在cost function后加一些额外的term,来减少某些个别特征的权重 2)regularization(正则化):减小所有特征的值 minθ 12m ∑mi=1(hθ(x
2017-11-07 19:37:32 177
原创 VGG网络笔记整理
本文在Alexnet的基础上做了一些改进。主要关注了两个重要点:1.使用更小的卷积核和步长。2.增加网络深度 使用了3*3的更小卷积核,步长为1,最大池化层2*2,滑动步长为2。
2017-09-22 10:36:39 362
原创 Alexnet 笔记
整体网络结构:5层conv + 3层全连接,池化层使用的是最大池化; relu优势:收敛快,学习速度快 pooling层有重叠:步长小于卷积核大小,为了克服过拟合,因为这样池化层的输出之间有重叠,提升特征的丰富性; 数据扩增: dropout:削弱联合适应性,即防止整个网络会对部分节点过度依赖,这样有助于防止过拟合; top-1 top-5 正文笔记: 关于激活函数:首先为什么要引进
2017-09-19 16:00:36 337
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人