DeepLearning
文章平均质量分 72
Andrewseu
A man in the road---Fighting!
展开
-
finally 成功在电脑上配上了caffe
finally 成功在电脑上配上了caffe ----献给配置路上艰辛奋战的人折腾了很多天,经历了各式各样的错误,尝试了各种各样的方法,看了很对很多的解决方法,内心受了不知道多少煎熬,finally,I succeed!!!经历了这么多次失败后,面对失败慢慢开始变得坦然起来,就默默的重新来过,重装系统,重原创 2016-01-15 19:04:41 · 1302 阅读 · 0 评论 -
Deep Residual Learning for Image Recognition(ResNet)残差网络解读
Kaiming 的Resnet在2015年横扫各大视觉主流比赛榜单,对工业界和学术界都产生了巨大而深远的影响,论文拿下了CVPR2016的best paper award。首先来看看ResNet的威力:不仅拿了第一,还超过第二一大截。我们就来看看ResNet的神奇之处。Is learning better networks as easy as stacking more原创 2017-04-16 12:05:50 · 3633 阅读 · 0 评论 -
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition(SPP-Net)解读
论文发表在ECCV2014作者:Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian SunIntroductionCNN 在视觉领域虽然取得了很大的成就,但是一直存在一个技术问题是CNN都需要一个固定的图片大小,比如224*224,这限制了输入图像的大小和比例。现在的方法主要是通过crop/warp来满足对图像大小原创 2017-04-16 17:02:08 · 2509 阅读 · 0 评论 -
Fast R-CNN解读
Introduction由于检测的复杂性,目前的一些模型都是多阶段的训练过程,首先是得到region proposals,然后提取region feature,预测bounding box, 最后进行精修,这一系列过程并不是端到端的,需要存储大量的中间特征,耗费大量的空间,并且训练过程很慢,也不elegant.因此,rgb大神把这整个过程串起来了,提出一个单阶段训练算法,同时把object原创 2017-04-23 17:09:42 · 1513 阅读 · 0 评论 -
命令备忘录
1. 安装tflearnpip install tflearn2. 打开tensorboardtensorboard --logdir=/tmp/tflearn_logs/原创 2017-03-28 16:05:08 · 922 阅读 · 0 评论 -
Visualizing and Understanding Convolutional Networks(ZF-Net)解读
会议: ECCV 2014Introduction自从AlexNet出现出现之后,大量的CNN都冒出来取得了很好的分类效果,但是,存在有两个问题,一个是对CNN为什么能够表现得如此之好并不清楚;二是他们的表现怎么能够提升;这篇论文探索的就是这两个问题,同时提出的ZF-Net取得了ILSVRC 2013图像分类冠军。CNN成功的要素主要有三个方面的原因,(1)有大得多的训原创 2017-05-09 21:17:02 · 1200 阅读 · 0 评论 -
Generative Adversarial Nets (GAN)解读
会议:NIPS 2014IntroductionGAN,生成对抗式网络是是Ian Goodfellow经典的大作,引起了很大的轰动,后面的各种GAN也层出不穷。追根溯源,为了了解GAN,需要从这篇开山之作说起。那GAN到底是什么?简单来说,GAN由两个模型组成,一个是生成模型G,一个是判别模型D,G负责从给定训练数据中学习数据的概率分布而D负责判别G生成出来的数据是不是符合真实数据原创 2017-06-18 21:10:18 · 1897 阅读 · 1 评论 -
Tensorflow-GPU版本安装(Ubuntu14.04LTS+Cuda8+Quadro K1200)
前言之前装过Caffe,踩过一些坑,现在装Tensorflow相对从容一些,不过还是值得记录一下流程。我的系统配置是:系统:Ubuntu 14.04LTS显卡:Nvidia Quadro K1200CUDA 8.0安装1.安装必要的一些库sudo apt-get install build-essential下载CUDA toolkit 8.0 官网地址友情提示:最好下载本地文件安装.原创 2017-10-07 23:53:26 · 2713 阅读 · 0 评论 -
Docker-tensorflow跑VGG16
在我们的实际项目中,一般不会直接从第一层直接开始训练,而是通过在大的数据集上(如ImageNet)训练好的模型,把前面那些层的参数固定,在运用到我们新的问题上,修改最后一到两层,用自己的数据去微调(fineturn),一般效果也很好。如果要在docker上的tensorfow上跑,我们需要做以下几件事情:1.下载好VGG16的权重文件一般是 VGG16_Weights.npy ,或者V原创 2017-03-31 11:07:28 · 6196 阅读 · 7 评论 -
DCGAN结构解读
DCGAN的原文里面给出的结构如下: 这是G的结构,而D则是完全相反的: 刚看论文的时候觉得结构很清晰,但是实际写代码的时候并不是很能够清楚表示,相信有很多人也是这种感觉,因此这边做一个分析,以便后面的同学理解。这里面涉及到一个名词叫fractionally-strided convolution,与传统的卷积有所区别,这里先做个理解:regular convolution 输入大小为i,s原创 2017-10-13 20:53:05 · 13638 阅读 · 4 评论 -
Factors in Finetuning Deep Model for Object Detection with Long-tail Distribution解读
微调已经在很多视觉任务上都有一个state-of-art的performance,比如说追踪,分割,物体检测,动作识别等等。但是不同的微调方法对结果也是不一样的,这篇论文主要探索了物体检测上微调中对performance的影响因素。经验和分析结果都告诉我们有更多样本的类对feature learning的影响是更大的,因此最好是能够把样本分布均匀。提出一种层级的feature learning原创 2017-04-15 23:00:09 · 1947 阅读 · 0 评论 -
GoogLeNet( Going deeper with convolutions)解读
IntroductionGoogLeNet是业界经典的一种深度结构,整个网络有22层,之所以称为GoogLeNet,作者说是为了致敬Yann LCun 的LeNet。从LeNet-5开始,CNN有一个很标准的结构,一堆卷积层,后面可能跟上Norm和max-pooling层,然后接上一层或者全连接层。论文的工作主要集中在探索一种高效的深度神经网络结构,代号是Inception原创 2017-04-14 17:29:45 · 1418 阅读 · 0 评论 -
caffe配置折腾记
caffe配置折腾记 ---ubuntu14.04+cuda7.0+caffe配置先说结论,经过无数次的尝试,无数次的重装系统,caffe环境配好了。声明:由于电脑配置不同,个人操作不同,版本不同,环境因素不同,(人不能踏进同一条河流)不保证本教程一定能解决遇到的问题,但是仅以本人遇到的问题进行一个总结,望给大家提供一些参考价值。原创 2016-01-16 00:32:19 · 4177 阅读 · 7 评论 -
七步理解深度学习
七步理解深度学习By Matthew Mayo 翻译by Andrewseu深度学习是机器学习的一个分支,拥有很多的相似性,但是却也不同,深度神经网络结构在自然语言处理、计算机视觉、生物信息学和其他领域解决了各种各样的问题。翻译 2016-01-18 17:43:43 · 14754 阅读 · 3 评论 -
Ubuntu下快速安装Docker&&快速安装Tensorflow方法
第一步,根据Docker官网安装教程安装Docker;国内安装一般很慢,甚至经常中断导致安装不成功,不急,tips1实测不用一分钟!只要你网速够!快速安装docker第二步,安装tensorflow;这个时候如果直接按照网上的教程来pull,还是很慢很慢的,并且很有可能出现TLS handshake timeout 错误,但是tips2如果换成国内的hub,原创 2017-01-04 16:28:59 · 3785 阅读 · 0 评论 -
CS231n Assignment2--Fully-connected Neural Network
课程网址:http://cs231n.github.io/assignments2016/assignment2/主要目的是保存一下一个比较完整的全连接神经网络代码,不带说明了,代码说明也比较详细。dataset.py# -*- coding: utf-8 -*-import numpy as npdef unpickle(file): import c原创 2017-02-26 20:39:11 · 2603 阅读 · 0 评论 -
TensorFlow实现案例汇集:代码+笔记
选自 Github机器之心编译参与:吴攀、李亚洲这是使用 TensorFlow 实现流行的机器学习算法的教程汇集。本汇集的目标是让读者可以轻松通过案例深入 TensorFlow。这些案例适合那些想要清晰简明的 TensorFlow 实现案例的初学者。本教程还包含了笔记和带有注解的代码。项目地址:https://github.com/aymericda转载 2017-03-09 15:18:01 · 2520 阅读 · 0 评论 -
R-CNN论文解读
论文题目: Rich feature hierarchies for accurate object detection and semantic segmentation作者: Ross Girshick Jeff Donahue Trevor Darrell Jitendra Malik会议: 2014 CVPR1. R-CNN是什么R-CNN就是Regions wit原创 2017-03-28 14:19:01 · 1643 阅读 · 0 评论 -
TFlearn 运行Alexnet
TFlearn是一个高度封装的库,结构简洁明了,适用于新手,后期可以进一步去根据需要再进行深度学习!文档在这:http://tflearn.org/Alexnet用于Oxford 17 Category Flower Dataset分类,包含17个类,每个类80个图片;# -*- coding: utf-8 -*-""" AlexNet.Applying 'Alexnet'原创 2017-03-28 16:34:06 · 4240 阅读 · 0 评论 -
tensorflow提取VGG特征
我们知道,再网络训练好之后,只需要forward过程就能做预测,当然,我们也可以直接把这个网络当成一个feature extractor来用,可以直接用任何一层的输出作为特征,根据R-CNN论文对Alexnet的实验结果,如果不做fine-tuning,pool5和fc6和fc7的特征效果并没有很强的提升,所以,如果直接用作feature extractor,直接用pool的最后一层输出就OK.原创 2017-04-10 10:34:53 · 12846 阅读 · 4 评论 -
caffe finetuning CaffeNet流程总结
所谓finetuning,就是说我们针对某相似任务已经训练好的模型,比如CaffeNet, VGG-16, ResNet等, 再通过自己的数据集进行权重更新, 如果数据量比较小,可以只更新最后一层,其他层的权重不变,如果数据量中等,可以训练后面几层,如果数据量很大,那OK,直接从头训练,只不过在训练时间上,需要花费比较多。选择Caffe做finetuning的原因在于,相比于tenso原创 2017-04-12 16:00:46 · 6948 阅读 · 1 评论 -
CGAN结构详细解读
前言本文适用于对CGAN结构不懂得同学,所谓CGAN,就是conditional Gan,针对GAN本身不可控的缺点,加入监督信息,指导GAN网络进行生成。CGAN结构y就是加入的监督信息,比如说MNIST数据集可以提供数字label信息,人脸生成可以提供性别、是否微笑、年龄等信息;我们具体分析的是InfoGan里面的MNIST生成结构,网络结构如下图: 如果对conv和upconv有不理解的同学原创 2017-10-17 14:38:42 · 24514 阅读 · 11 评论