![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cnn
文章平均质量分 67
Emma-SJ
我是一个孩子,一个被幻想妈妈宠坏了的孩子,我任性。
展开
-
CNN+caffe学习1:fine-tuning
Transfer Learning with CNNsTrain on ImageNetfine-tuning with small dataset retrain only the classifier swap the Softmax layer at the layerfine-tuning with medium dataset use the old weights as原创 2017-01-06 15:44:04 · 609 阅读 · 0 评论 -
begin-end
1. 自己写的网络,直接3分类,效果不好,正确率:0.475806452 2. finetuning别人的网络,直接3分类,效果不好,正确率: 3. Alex网络caffemodel + libSVM: 47.58% 4. Alex网络caffemodel + MLP: 5. Alex网络finetuning + libSVM (4分类,代表空加原本3类, 交叉验证5折求得最佳C原创 2017-03-21 17:37:23 · 451 阅读 · 0 评论 -
论文笔记:R-CNN
论文笔记:Rich feature hierarchies for accurate object detection and semantic segmentation【分类】【分割】【检测】 需要带有bounding box的数据。 摘要: 这篇论文主要把CNN的FC7层作为特征提取器,利用SVM做分类器。然后利用CNN的pooling5层作为attention的区域,形成bounding原创 2017-03-28 21:24:49 · 434 阅读 · 0 评论 -
论文笔记:Network in network
摘要 Network in Network(‘NIN’) 构造了一个复杂的微型网络结构,用于对数据进行抽象处理(其实就是提取特征)。利用全局平均池化对特征图进行分类,能够有效避免过拟合问题。特点卷积神经网络的假定是线性可分的。NIN中的微型网络结构可以进行非线性的划分。利用多层感知机(MLP)作为微型网络结构的一部分,感知机是普遍的函数近似者,同时又可以进行back propagation.原创 2017-02-15 10:31:14 · 737 阅读 · 0 评论 -
论文笔记:A Global Covariance Descriptor for Nuclear Atypia Scoring in Breast Histopathology Images
Author: Adnan Mujahid Khan 论文原文链接:点击此处摘要 细胞核非典型评分通常被用于评定不同癌症的肿瘤等级,包括乳腺癌。本文提出了一个新颖的图片等级描述器,这个方法是基于区域协方差描述器。我们称我们的描述器为geodesic mean of region covariance descriptor, 它能够处理协方差描述器中出现的吸引人的特征,同时能够使用有效的核数进行原创 2017-02-15 16:38:16 · 832 阅读 · 0 评论 -
论文笔记:Is object localization for free?
Is object localization for free? Weakly-supervised learning with convolutional neural networks摘要 提出一个弱监督卷积神经网络for 分类。主要贡献有:1. 输出正确的分类结果(image-level)2. 预测合理的位置3. 对比跟bounding box 引言本文利用的图片只有图片包含的原创 2017-03-02 11:53:54 · 3085 阅读 · 0 评论 -
论文笔记:Look and Think Twice
Look and Think Twice: Capturing Top-Down Visual Attention with Feedback Convolutional Neural Networks 摘要 在计算机视觉领域反馈型深度卷积神经网络取得了巨大的成功。但是人类的视网膜反馈明显比正馈能包含更多的连接。在本篇文章中引进了背景反馈信息,能够激励我们发展计算反馈机制。此外,在传统神原创 2017-03-01 21:06:05 · 2536 阅读 · 2 评论 -
四大卷积网络发家之路
原文链接> AlexNet VGGNet Google Inception Net ResNet 这4种网络依照出现的先后顺序排列,深度和复杂度也依次递进。它们分别获得了ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛分类项目的2012年冠军(top-5错误率16.4%,使用额外数据可达到转载 2017-03-01 15:22:53 · 12096 阅读 · 0 评论 -
论文笔记:Segmentation as Selective Search for Object Recognition(ICCV2011)
SegmentationasSelectiveSearchforObjectRecognition 摘要 对于物体识别来说,当时的方法是基于穷举搜索。此处提出了利用更加具有价值的信息的方法:对于一些少量且精确的物体描绘生成许多合适的位置信息——(1)不会被发现的那些物体的位置信息是不会被识别的,(2)外观和周围的内容对于物体识别来说是最为有效的信息。总之我们的方法很棒,能够比当时最先进的算原创 2017-02-28 16:45:25 · 594 阅读 · 0 评论 -
论文笔记:Weakly Supervised Deep Detection Networks
Weakly Supervised Deep Detection Networks 摘要:本文主要解决了大规模image-level的分类问题,可同时解决区域选择和分类问题。作为拖欠训练器来训练。引言 弱监督学习非常重要主要是由于以下两个原因,其一,图片理解的主要目的在于学习整体的复杂视觉环境(ImageNet比赛);其二,CNN训练数据缺乏。因此,如果能够用上层信息来学习复杂的内容能够极大地原创 2017-02-28 12:00:31 · 5661 阅读 · 3 评论 -
CNN+caffe学习4:自己训练网络全过程
本问创建于2017年1月。由于caffe版本更新, 可能部分操作已经过时不能使用,希望大家多看源码,增强自主学习能力。 资料下载地址:https://github.com/EmmaW8/caffe.git branch选择201701,code文件夹里面是需要用到的执行文件,models里面是我自己设计的5层CNN模型配置文件,以及训练结果。1. 准备数据2. 数据分类...原创 2017-01-09 15:05:15 · 5844 阅读 · 7 评论 -
2017.01.06
最近在用caffe跑神经网络,中间遇到一些问题,记录下来。accuracy 为0 train_val.prototxt文件中,val 数据集写错,写成了test(无标签),故正确率为0.caffe 网络可视化:Netscope 在线生成网络图片表示accuracy :73.95%, loss 忽高忽低 原因:结果有3类,所以标签需要在0-2之间,我用的 1 2 3.原创 2017-01-06 17:43:32 · 303 阅读 · 0 评论 -
CNN+caffe学习3:data processing
Data ProcessingPreprocess the datasubtract the mean image (AlexNet)subtract per-channel mean (VGGNet)Weight initialization small random numbers [works ok]Batch Normalization (usually inserted after原创 2017-01-06 17:17:28 · 298 阅读 · 0 评论 -
CNN+caffe学习2:Activation Functions
Activation FunctionsSigmoid σ(x)=1(1+e−x)\sigma(x) = \frac{1}{(1+e^{-x})} 取值范围:[0~1] Problems:Saturated neurons “kill” the gradientsSigmoid outputs are not zero-centeredexp() is a bit computer原创 2017-01-06 16:25:06 · 422 阅读 · 0 评论 -
论文笔记:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks
Analyzing Classifiers: Fisher Vectors and Deep Neural Networks(CVPR 2016)CVPR上的文章,不读一读,你会后悔的。 原文链接:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks每次读论文都会犯困,除非,我真的看懂了-_-. 所以边做笔记边读,成了读论文的原创 2017-03-29 17:47:05 · 2486 阅读 · 1 评论