cnn
文章平均质量分 73
BVL10101111
THU master, interested in ML,DL,DM
github:https://github.com/BenchengY
展开
-
CNN(Convolutional Neural Networks)学习总结
刚开始学习cnn,把前段时间看cnn相关的内容,今天稍微的总结下。在文章中差漏的地方,还望见谅。权当做交流。文章开头先推荐一个网址: https://github.com/BVLC/caffe/wiki/Model-Zoo 罗列了主流会议,近年来cnn上的相关进展和各种model,感兴趣的可以拿来阅读一番。**Cnn几篇重要的论文** Lenet-5 :Yann LeCun等在1998年发布的原创 2016-11-29 17:28:27 · 2536 阅读 · 1 评论 -
论文笔记之Deep Convolutional Networks on Graph-Structured Data
本篇论文是2015年nips上的一篇论文, 是对于其本人在2014年nips发表的论文:Deep Convolutional Networks on Graph-StructuredData 对于graph上的cnn进一步探讨。相比于之前的工作,此篇论文主要贡献有两点: 1.将之前的construction应用于大数据集的分类问题——Imagenet 2.对于输入的graph是否有标签,分别原创 2016-12-02 19:12:38 · 8311 阅读 · 1 评论 -
论文笔记之Spectral Networks and Deep Locally Connected Networks on Graphs
这是2014 nips上的一篇论文。 主要的贡献就是设计了在irregular grid上的cnn的应用。**文中有两个并列的模型:第一个模型deep locally connect network(spatial construction从空间角度去建立)locally 体现在 只取每个节点前k个neighborhoods。 connect 体现在,每层与每层之间的神经元数目是通原创 2016-12-01 20:17:29 · 15106 阅读 · 4 评论 -
cnn学习之卷积或者池化后输出的map的size计算
详细各位在学习cnn的时候,常常对于卷积或者池化后所得map的的大小具体是多少,不知道怎么算。尤其涉及到边界的时候。首先需要了解对于一个输入的input_height*input_widtht的图像,在卷积或者池化的时候,经常需要加padding,这是为了处理边界问题时而采用的一种方式,于是原输入就变成了下图所示:对于输出的size计算 如下图:out_height=(原创 2016-12-05 22:53:45 · 5482 阅读 · 0 评论 -
论文笔记之Learning Convolutional Neural Networks for Graphs
本篇论文是2016ICML上的一篇论文,对于如何将cnn应用在graph上提供了一种新的思路。架构: 总体上讲,就是用w个固定size=(k+1)的子图来表示输入的graph,再将这w个子图正则化后,生成一个w(k+1)维的向量,作为传统的cnn的输入,进行学习。其实就是做了一个从graph到向量的映射的一个预处理过程。算法流程 输入:任意一张图 输出:每个channel输出w个recep原创 2016-12-06 11:07:32 · 10237 阅读 · 5 评论 -
论文笔记之Fully Convolutional Networks for Semantic Segmentation
最近了解到了Image Semantic Segmentation方面的知识,在此做一个记录。 这篇论文是2015cvpr的best paper,可以说是在cnn上做图像语义分割的开山之作。**1.语义分割定义:** 语义就是指物体的类别,即属于同一类别的物体都算作一类比如图像中的3个人算作一类,5辆汽车算作一类等,它们都属于同一类别,即“人类”、“汽车”一般规定要进行分割的n个类别的物体(即我原创 2016-12-27 17:16:37 · 3277 阅读 · 5 评论 -
cnn学习之训练和测试数据集处理
最近,在看alexnet,vgg,googlenet的论文时,对于论文中training和testing的时候对于image的处理,做一下总结。(其中有些困惑,可能理解不到位,还望指出)training我们知道对于cnn而言,输入的数据大小是必须相同的,而对于imagenet中的数据集而言,大小不一,因此一般先rescale成一个固定大小比如256*256,然后再从这256*256原创 2016-12-09 19:35:50 · 6051 阅读 · 0 评论