深度学习
文章平均质量分 86
huxcai
这个作者很懒,什么都没留下…
展开
-
Generative Adversarial Net 生成对抗模型
资料搜集 论文+代码:1.纹理合成 Markovian Generative Adversarial Networks (MGANs) for training generative neural networks for efficient texture synthesis 简介:Precomputed Real-Time Texture Synthesis with Markovian Ge原创 2016-09-01 11:34:53 · 2494 阅读 · 0 评论 -
caffe源码阅读
/*caffe.cpp can do four thingstrain: train or finetune a model\n” test: score a model\n” device_query: show GPU diagnostic information\n” time: benchmark model execution time”);date:2016/07/13/ hu原创 2016-09-01 21:44:09 · 480 阅读 · 0 评论 -
关于图像语义分割的总结和感悟
转载知乎:困兽 https://zhuanlan.zhihu.com/p/22308032关于图像语义分割的总结和感悟困兽 · 1 天前前言(呕血制作啊!)前几天刚好做了个图像语义分割的汇报,把最近看的论文和一些想法讲了一下。所以今天就把它总结成文章啦,方便大家一起讨论讨论。本文只是展示了一些比较经典和自己觉得比较不错的结构,毕竟这方面还是有挺多的结构方法转载 2016-09-06 09:05:04 · 6758 阅读 · 0 评论 -
Mean Average Precision(MAP)
Precision Main article: Precision and recall Precision is the fraction of the documents retrieved that are relevant to the user’s information need. precision=|{relevant documents}∩{retrieved documen转载 2016-10-11 15:02:13 · 2192 阅读 · 0 评论 -
《论文阅读笔记》Deep Metric Learning via Lifted Structured Feature Embedding
1.解释Lifted ,Structured structured:结构化 可以参考structured learning : to prediction structured ojects ,rather than scalar discrete or real values.For example,the problem of translating a natural language原创 2016-10-24 22:18:17 · 2133 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
转载:http://www.cnblogs.com/neopenx/p/4453161.htmlReLu(Rectified Linear Units)激活函数论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活转载 2016-10-26 10:03:14 · 640 阅读 · 0 评论 -
SGD,Adagrad,Adadelta,Adam等优化方法总结和比较
翻译总结:http://ycszen.github.io/2016/08/24/SGD%EF%BC%8CAdagrad%EF%BC%8CAdadelta%EF%BC%8CAdam%E7%AD%89%E4%BC%98%E5%8C%96%E6%96%B9%E6%B3%95%E6%80%BB%E7%BB%93%E5%92%8C%E6%AF%94%E8%BE%83/#comments原文:ht转载 2017-02-09 09:46:00 · 5326 阅读 · 0 评论