论文笔记
hustlx
小硕一枚,兴趣人工智能、机器学习、图像处理。
展开
-
ImageNet Classification with Deep ConvolutionalNeural Networks
ImageNet Classification with Deep ConvolutionalNeural Networks ReLU(Rectified Linear Units (ReLUs))激活函数的优势:从用梯度下降法的训练时间角度来看,双曲正切或者sigmoid函数这类饱和非线性函数要比ReLU:f=max(0,x)这个非饱和的非线性函数要慢的多(好几倍的速度)。原创 2016-06-19 15:11:33 · 1327 阅读 · 0 评论 -
Fast-RCNN
相比于SPP,实际上就是用了一层确定输出大小的pooling层,然后后面识别与定位一起training。 在调优训练时,每一个mini-batch中首先加入N张完整图片,而后加入从N张图片中选取的R个候选框。这R个候选框可以复用N张图片前5个阶段的网络特征。 实际选择N=2, R=128。 对比回来SPP-Net,可以看出FRCN大致就是一个joint training版本的SPP-Net原创 2017-06-05 18:40:20 · 505 阅读 · 0 评论 -
SPPNet:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
金字塔池化层有如下的三个优点 第一:他可以解决输入图片大小不一造成的缺陷。 第二:由于把一个feature map从不同的角度进行特征提取,再聚合的特点,显示了算法的robust的特性。 第三:同时也在object recongtion增加了精度。其实,你也可以这样想,最牛掰的地方是因为在卷积层的后面对每一张图片都进行了多方面的特征提取,他就可以提高任务的精度。 如何利用SPP-Net进行原创 2017-06-04 13:47:26 · 578 阅读 · 0 评论 -
RCNN
1、Selective Search Yield small starting regions[1] Efficient graph-based image segmentation Group similar region(color,texture,size,fill) Rank : v=RND × i 2、Feature extraction Wraped mean原创 2017-06-04 14:19:39 · 569 阅读 · 0 评论 -
论文笔记
OverFeat大框架是Hinton的Alex-net,创新点主要在以下几点: 1.训练时输入大小固定,测试时用多尺度输入; 2.没有进行对比度归一化; 3. max pooling没有采用overlap 4. 3、4、5层的feature map 比Hinton的多。 OverFeat在2013年的ImageNet上的性能表现并不是最优秀的,在18个team里面排名第5,但是他提出的测转载 2017-08-22 19:20:33 · 822 阅读 · 0 评论