深度学习
AUTO1993
这个作者很懒,什么都没留下…
展开
-
阅读笔记(paper+code):Residual Attention Network for Image Classification
阅读笔记(paper+code):Residual Attention Network for Image Classification代码链接:https://github.com/fwang91/residual-attention-network深度学习中的attention,源自于人脑的注意力机制,当人的大脑接受到外部信息,如视觉信息、听觉信息时,往往不会对全部信息进行处理和理解,原创 2017-10-23 09:00:00 · 7380 阅读 · 3 评论 -
RCNN系列目标检测方法概述
R-CNN系列算法是将将CNN方法引入目标检测领域的开山之作,极大改善目标检测的效果。传统的目标检测:穷举的方式进行滑窗处理;R-CNN:基于候选区域的方法(region proposals)一、预备知识物体检测和图片分类的区别:图片分类不需要定位,而物体检测需要定位出物体的位置,也就是相当于把物体的bbox检测出来,还有一点物体检测是要把所有图原创 2017-11-12 19:24:53 · 3412 阅读 · 0 评论 -
ROI Pooling层详解
ROI Pooling层详解原文链接:https://blog.deepsense.ai/region-of-interest-pooling-explained/目标检测typical architecture 通常可以分为两个阶段:(1)region proposal:给定一张输入image找出objects可能存在的所有位置。这一阶段的输出应该是一系列object可能位置翻译 2017-11-12 19:38:02 · 78810 阅读 · 34 评论 -
迁移学习与微调的关系
迁移学习与微调的关系来看一下CS231n对于迁移学习的解释吧。在实际中,因为数据量小的缘故,很少有人会去从零开始去训练出一个CNN(train from scratch)。相反,普遍的做法都是在一个大的数据集上(比如ImageNet,包含120万张来自1000的类的数据集)进行预训练一个CNN模型,然后在这使用这个模型作为固定特征提取器或者网络的初始化权重应用在特定的任务中。主要的迁移原创 2017-11-30 16:34:05 · 9264 阅读 · 2 评论 -
阅读笔记(paper+code):Residual Attention Network for Image Classification
阅读笔记(paper+code):Residual Attention Network for Image Classification代码链接:https://github.com/fwang91/residual-attention-network深度学习中的attention,源自于人脑的注意力机制,当人的大脑接受到外部信息,如视觉信息、听觉信息时,往往不会对全部信息进行处理和理解,原创 2017-11-28 10:31:50 · 1647 阅读 · 0 评论 -
阅读笔记:Instance-aware semantic segmentation via Multi-task Network Cascades
论文阅读:Instance-aware semantic segmentation via Multi-task Network Cascades论文信息:CVPR2016, PASCAL VOC in VGG 63.5% mAP. COCO2015 in resnet101 won first prize整体框架:对于传统的多任务方法,都是在共享特征的基础上,每个任务同时进行各不干扰,互相独立。...原创 2018-03-24 15:31:53 · 1760 阅读 · 0 评论