CMU: Computer Vision
文章平均质量分 86
Snail_Walker
Google Senior Machine Learning Tech Lead | 行胜于言
展开
-
A Neural Algorithm of Artistic Style
introductionNetwork Architectureintroduction什么是风格迁移呢?我觉得简单地理解就是你给出图片A,然后你想把图片B的画风给A,同时A的内容得以保留。其实就是如果是图片B的作者来画A是一个什么效果。之前已经有一些提取图片特征纹理的信息的算法用来做风格迁移,但是效果都不是特别理想或者是适用范围不够大。而今天说的A Neural Algorithm of Art原创 2016-12-12 11:09:48 · 1176 阅读 · 0 评论 -
鱼眼镜头畸变校正的一些参考链接
工具箱:http://swardtoolbox.github.io/对于鱼眼镜头畸变校正的介绍: http://blog.csdn.net/humanking7/article/details/45037239 http://blog.csdn.net/kfqcome/article/details/9411711#具体的代码实现: http://blog.csdn.net/deng原创 2017-02-08 19:01:53 · 2248 阅读 · 0 评论 -
ORB: an efficient alternative to SIFT or SURF
介绍FAST关键点rBRIEF描述子介绍目前SIFT特征准确度高,但是计算复杂度也高。很多时候需要用到匹配、追踪什么的,使用SIFT就比较慢。本文作者提出了ORB(Oriented FAST and Rotation BRIEF)特征。ORB有个特点是这个特征没有申请专利,另外这种特征的好处是:给FAST检测子方向和快速计算;高效计算带有方向的BRIEF特征关键点(keypoint 就是图原创 2017-02-20 10:13:12 · 3415 阅读 · 0 评论 -
non-saturated function in AlexNet
在看AlexNet的《AlexNet-ImageNet Classification with Deep Convolutional Neural Networks》 的时候出现了non-saturated function,不知所云,所以查找了这篇博客,mark一下。 最近在看机器学习的书籍时,经常会发现saturate这个术语。saturate这个词的直译是“浸透、转载 2017-04-05 22:54:15 · 718 阅读 · 0 评论 -
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices的理解
前沿加速方法Channel Shuffle for Group ConvolutionsShuffleNet单元网络结构实验对比Github实现前沿随着近几年AI算法爆发式的发展,越来越多的运用场景出现了。为了让更多的算法落地,如何做移动端的模型加速和模型压缩成了近期的一个热点。比如前一段做参数量化的BinaryNet、Google出的GoogleNet,到现在Face++出的Shuff原创 2017-07-14 23:01:43 · 9023 阅读 · 4 评论 -
Caffe中的卷积计算(矩阵优化加速)
Caffe对卷积层做了专门的优化,如果没有做优化的话,那么就是六层循环。所以为了做加速,卷积层需要专门的优化。它的优化如下:Caffe中的卷积计算是将卷积核矩阵和输入图像矩阵变换为两个大的矩阵A与B,然后A与B进行矩阵相乘得到结果C(利用GPU进行矩阵相乘的高效性),三个矩阵的说明如下:(1)在矩阵A中 M为卷积核个数,K=转载 2017-07-19 17:22:04 · 4738 阅读 · 2 评论 -
深度学习框架之Keras入门教程
introduction and installexampleintroduction and installKeras是一种high level的神经网路的Python API,它可以在TensorFlow, CNTK, or Theano上运行,兼容Python Python 2.7~3.6,所以非常方便。可以在CPU和GPU上运行,适用于快速验证想法。**模块化:**neural layer原创 2017-12-27 22:20:39 · 21170 阅读 · 2 评论 -
TensorFlow之入门篇
introductionBasic Operation可视化graph常量operation数据类型变量loading lazy实例线性回归神经网络识别数字introductionTensorFlow是由Google Brain Team弄的一个深度学习框架,使用的是data flow graph的模型进行计算。相比于Torch,Theano,Caffe,CNTK,Disbelief原创 2017-12-28 02:30:46 · 1454 阅读 · 0 评论 -
TensorFlow之进阶篇
linear regressiongraph assemble训练模型examplelogistic regressionloss functionHuber Loss在这一篇中,将会介绍如何使用TensorFlow进行linear regression以及logistic regression,以及loss function的定义。之后的篇章将会进入如何使用TF构建RNN,LSTM网络。上原创 2017-12-28 06:45:25 · 1248 阅读 · 1 评论 -
使用faster rcnn训练自己的模型
安装caffe数据预处理对于训练代码的修改遇到问题参考性很强安装caffe可以看我之前的博客: 安装caffe 安装faster rcnn: faster rcnn数据预处理进行数据标注: https://github.com/saicoco/object_labelImg我这里主要是使用python对xml进行处理。生产xml的代码:# -*- coding:utf-8 -*-__原创 2016-12-30 18:18:30 · 4095 阅读 · 0 评论 -
摄像头标定(carlibration)、Homography以及它的matlab实现
Homogeneous CoordinatesPin-hole camera ModelStandard Perspective Camera Modelaffine camera model计算标定矩阵总结homographyMatlab实现图片拼接计算H把你的照片嵌入海报图片拼接Homogeneous Coordinates 点的二维坐标可以用三维表示,因为用二维怎么表示无原创 2017-01-16 11:20:26 · 8041 阅读 · 5 评论 -
R-FCN + ResNet + Python + 训练自己的模型
安装MS Caffe测试Demo训练自己的模型的准备工作训练参考链接安装MS Caffe假设你已经装好了CUDA,cudnn,caffe等等。 这一步感觉和faster rcnn很像,都需要独特版本的caffe。这里的版本就是Microsoft的caffe。 pip install cython pip install easydict apt-get install py原创 2017-01-08 11:37:54 · 9069 阅读 · 7 评论 -
深度学习在自动驾驶中的应用
introImplementationData for TrainingNetworkSimulationTestResourceintroNvidia在做自动驾驶的时候,思路和传统思路果然有些差异。比如Google使用的是激光雷达+摄像头+IMU+惯导系统+GPS等等。Nvidia做法是采取end2end的方法,就是直接从摄像头的像素->汽车的控制。就是把采集的图片作为输入,汽车的轮子原创 2016-12-30 21:28:59 · 10755 阅读 · 1 评论 -
Visual Odometry(视觉里程计): StereoScan Dense 3d Reconstruction in Real-time
介绍系统概述A特征匹配Bego-motion估计C立体匹配D3D重建实验结果运行结果及代码介绍从多个二维图片中重建3D影像是机器视觉必不可少的部分,这篇论文【1】提出的就是做3D重建的工作。这篇论文提出了一种巧妙的实时的方法做3D地图重建——使用稀疏特征和视觉里程计相结合的方法。这种方法包含了立体匹配和创建点云。用这种方法计算出来的视觉里程计是当年11年最好的。该法可以每秒执行25f,原创 2017-01-15 14:13:24 · 5696 阅读 · 8 评论 -
cs231n : 深度学习框架的使用
Caffecaffe的组成caffe训练一个网络Caffe地址:http://caffe.berkeleyvision.org安装caffe,安装faster rcnn,R-FCN请看我之前的博客: http://blog.csdn.net/c602273091/article/details/53907162 http://blog.csdn.net/c602273091/article/原创 2017-01-09 16:51:51 · 1636 阅读 · 0 评论 -
cs231n: 第一讲
介绍挑战方法Loss functionOptimizationStandford的cs231n这门课,我觉得真的是太棒了。把CNN的各个部分、以及目前的发展都做了详细的介绍。同时通过作业,对CNN有了更加深入地理解。介绍这一块主要说的是计算机视觉的一个历史进程,以及目前的使用情况。既然是李飞飞讲的课,自然就少不了imageNet这个数据集了。 然后是CV领域比较火的神经网络模型。 还有就原创 2017-01-08 17:12:22 · 1063 阅读 · 0 评论 -
cs231n: 第二讲
训练过程激活函数SigmoidtanhReLUleaky ReLUELUMaxout数据预处理权值初始化批归一化训练过程整个训练网络的过程可以用下图表示: 这个课程会把以上四个部分逐个击破,而且还加入不少调参的trick。接下来就将组个叙述各个部分。 激活函数Sigmoid这种激活函数有三个缺点: 1、饱和的神经元不再更新权值。可以看到横轴很大之后梯度接近于0; 2、这个原创 2017-01-08 17:49:23 · 846 阅读 · 0 评论 -
cs231n: 第四讲 faster rcnn的解释
最近在做detection的相关工作,但是对于要做的东西呢总是不太清楚,看了课程介绍之后,终于有了稍微清楚一些的认识。计算机视觉中一般有以下任务: 分类就是给你一张图,你说这是什么,一般来说只有一个目标物体。定位就是确定目标物体的位置,但是你不知道它是什么。所以分类和定位合起来就是给你一张图片,找出一个目标物体的位置,并给出置信度。detection就是多个物体的定位和分类。在detection之原创 2017-01-09 16:08:23 · 2835 阅读 · 0 评论 -
cs231n:第三讲 CNN的初体验
大纲参数更新Momentum UpdateNesterov Momentum updateNAGAdaGrad updateRMSProp updateAdam updateL-BFGSregularizationdropoutConvolutionPooling各个神经网络介绍大纲 设计参数更新、学习率设置、dropout、梯度检测、模型集成等等方面。参数更新在计算梯度下降原创 2017-01-09 14:51:18 · 1403 阅读 · 0 评论 -
cs231n: CNN训练的提醒
训练时的小技巧增强augmentation迁移学习Transfer learning计算卷积如何存储怎么加速计算的机器训练时的小技巧增强(augmentation)对训练集进行比如翻折,选择,颜色取反,颜色加入offset,PCA,白化等等手段,是训练集变大,以提高训练模型的泛化性能。有时候还会加入噪声,还进行dropout,以解决过拟合的问题。迁移学习(Transfer learnin原创 2017-01-11 15:40:36 · 1028 阅读 · 0 评论 -
RAM: Recurrent Models of Visual Attention 学习笔记
论文解析Torch代码Glimpse Networkhidden layerlocatorattention networkAgentparameter settingTF实践论文解析看了论文【1】和博客【9】【10】,我对RAM进行总结。要看懂这篇论文,需要强化学习中的policy-based learning和RNN的相关知识。如果对policy gra原创 2018-01-14 21:32:00 · 8815 阅读 · 10 评论