组会整理
努力努力再努力xxx
机会是留给有准备的人的。
展开
-
【小组会整理】ICLR2016Particular object retrieval with integral max-pooling of CNN activations
师弟在这次小组会上讲了一篇论文,在这里整理下疑惑的地方和我觉得能用到的地方。 这篇论文的中心思想就是对max pooling方式进行了改进提出了RMAC pooling。 首先说一下这篇论文的大题流线:MAC改进为RMAC-》目标定位AML(approximate max-pooling localization)-》扩展查询Query expansion。 1、pooling方式介绍 参考原创 2017-10-20 20:20:19 · 1450 阅读 · 0 评论 -
【小组会整理】adaboost算法
Boosting 算法的起源 boost 算法系列的起源来自于PAC Learnability(PAC 可学习性)。这套理论主要研究的是什么时候一个问题是可被学习的,当然也会探讨针对可学习的问题的具体的学习算法。这套理论是由Valiant提出来的,也因此(还有其他贡献哈)他获得了2010年的图灵奖。 **PAC 定义了学习算法的强弱 弱学习算法—识别错误率小于1/2(即准确率仅比随机猜测略转载 2017-09-21 20:25:50 · 260 阅读 · 0 评论 -
【大组会整理】深度生成模型可视化刘世霞深度生成网络可视化
这篇博客的目的是对此次组会自己感兴趣的地方和不懂得地方进行一个梳理,供自己梳理知识点使用。1、两个深度生成模型:GAN和VAE(Variational autoencoder) 参考博客:http://geek.csdn.net/news/detail/230599,这篇博客中还贴出了两个github的代码用来进行GAN和VAE实战,先放在这里,以后用到的话拿来细究。 首先简单说一下判别模型和生原创 2017-10-24 20:09:34 · 631 阅读 · 0 评论