深度学习模型
qq_32110859
这个作者很懒,什么都没留下…
展开
-
经典cnn之mobilenet
https://arxiv.org/pdf/1704.04861.pdf摘要 mobilenet是一个流线型结构,用了depthwise separable convolutions 用了两个全局超参,在耗时和准确性之间做了trade off,width multiplier and resolution multiplier prior work 开发者可以根据resource...原创 2019-01-19 17:13:33 · 522 阅读 · 0 评论 -
经典cnn之resnet
https://arxiv.org/pdf/1512.03385.pdf#page=9&zoom=100,0,157摘要 residual 残余的 We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gai...原创 2019-01-19 20:26:40 · 283 阅读 · 0 评论 -
Early Stopping | but when?
https://page.mi.fu-berlin.de/prechelt/Biblio/stop_tricks1997.pdf摘要 early stop应该是validation-based,但实际中,总是基于an ad-hoc fashion或是training is stopped interactively 基于临时的策略或是交互的方式停止训练,交互的方式个人理解就是工程师观察l...原创 2019-01-28 16:34:11 · 877 阅读 · 0 评论 -
attention_ocr源码
主要看sequence_layers.py这个脚本中才是实现了attention+decoder的部分,model中只是个架子。 sequence_layer中也是直接调用了TF的api,如果想深入理解,还是需要看TF源码。先从sequence_layer入手。AttentionWithAutoregression继承了Attention,Attention继承了SequenceLayerBa...原创 2019-09-03 15:48:02 · 625 阅读 · 0 评论