Computer Vision
文章平均质量分 69
Hi_Panda_CRL
这个作者很懒,什么都没留下…
展开
-
从CVPR 2014看计算机视觉领域的最新热点
编者按:2014年度计算机视觉方向的顶级会议CVPR上月落下帷幕。在这次大会中,微软亚洲研究院共有15篇论文入选。今年的CVPR上有哪些让人眼前一亮的研究,又反映出哪些趋势?来听赴美参加会议的微软亚洲研究院实习生胡哲的所见所闻。作者:胡哲微软亚洲研究院实习生计算机视觉(Computer Vision)是近十几年来计算机科学中最热门的方向之一,而国际计算机视觉与模式识别大会(Co转载 2015-11-07 18:34:51 · 685 阅读 · 0 评论 -
Caffe Solver
Solver scaffolds the optimization bookkeeping and creates the training network for learning and test network(s) for evaluation. iteratively optimizes by calling forward / backward and updating p原创 2016-07-21 15:46:39 · 495 阅读 · 0 评论 -
Python layer
Fully Convolutional Networks for Semantic Segmentation 论文中公布的代码作为示例,解释python层该怎么写。 https://github.com/shelhamer/fcn.berkeleyvision.org First you have to build Caffe with WITH_PYTHON_LAYER option 1. R原创 2016-07-20 11:04:07 · 3378 阅读 · 0 评论 -
郑帅师兄的五年博士总结
这五年最重要的,是渐渐知道了怎么去做一件比较大的事情。说得很大,其实就一点,心要静下来。首先,心静下来才能钻进某个领域里认真做事。现在的社交媒体太多了,各类新闻也太多,每天忙于应付这些广泛却又浅薄的信号,或是忙着去评点别人,是没有办法做成一件事情的。就比如一个人要去旅游,按图索骥地走一圈著名的景点,并不会给自己新的体悟,最多只增些与人的谈资而已。真要体会大自然的美丽,那是一定要涉足别人达不到的地方,转载 2016-07-08 15:58:26 · 1555 阅读 · 0 评论 -
Caffe --- SyncedMemory
SyncedMemory类定义在syncedmem.hpp/cpp里, 主要负责caffe底层的内存管理.PS: Caffe的底层数据的切换(cpu模式和gpu模式),需要用到内存同步模块。其实个人觉得如果需要研究Blob,对于SyncedMemory的分析很重要内存分配与释放内存分配与释放由两个(不属于SyncedMemory类的)内联函数完成. 代码简单直观: 如果是CPU模式, 那么调用m原创 2016-07-25 09:59:49 · 686 阅读 · 0 评论 -
Blobs, Layers, and Nets: anatomy of a Caffe model
BlobsBlob作为Caffe的四大模块之一,负责完成CPU/GPU存储申请、同步和数据持久化映射。Caffe内部数据存储和通讯都是通过Blob来完成,Blob提供统一的存储操作接口,可用来保存训练数据、模型参数等。Blob 事实上是调用了SyncedMemory 类。SyncedMemory类封装了CPU/GPU内存申请、同步和释放等。所以SyncedMemory 完成了对内存的实际操作。原创 2016-07-21 15:39:26 · 907 阅读 · 0 评论 -
Caffe --- blob code
两篇非常好的文章: http://blog.csdn.net/xizero00/article/details/50886829# http://www.cnblogs.com/yymn/articles/5341347.html原创 2016-07-23 13:02:21 · 892 阅读 · 0 评论 -
光流
http://docs.opencv.org/3.1.0/d7/d8b/tutorial_py_lucas_kanade.html#gsc.tab=0转载 2016-04-18 19:53:02 · 658 阅读 · 0 评论 -
目标检测之LatentSVM和可变形部件模型(Deformable Part Model,DPM)
一、综述Deformable Part Model和LatentSVM结合用于目标检测由大牛P.Felzenszwalb提出,代表作是以下3篇paper:[1] P. Felzenszwalb, D. McAllester, D.Ramaman. A Discriminatively Trained, Multiscale, Deformable Part Model. Proce转载 2015-11-09 09:58:40 · 1647 阅读 · 2 评论 -
Convolution and Pooling --卷积和池化
原文出处:http://www.cnblogs.com/bzjia-blog/p/3415790.html图像大小与参数个数:前面几章都是针对小图像块处理的,这一章则是针对大图像进行处理的。两者在这的区别还是很明显的,小图像(如8*8,MINIST的28*28)可以采用全连接的方式(即输入层和隐含层直接相连)。但是大图像,这个将会变得很耗时:比如96*96的图像,若采用转载 2015-11-08 21:47:01 · 808 阅读 · 0 评论 -
Caffe Layer Library
Convolution layer# convolutionlayer { name: "loss1/conv" type: "Convolution" bottom: "loss1/ave_pool" top: "loss1/conv" param { lr_mult: 1 decay_mult: 1 } param { lr_mult: 2原创 2017-03-14 15:22:33 · 4235 阅读 · 1 评论