- 博客(12)
- 资源 (10)
- 收藏
- 关注
原创 (Caffe,LeNet)反向传播(六)
本文地址:本部分剖析Caffe中Net::Backward()函数,即反向传播计算过程。从LeNet网络角度出发,且调试网络为训练网络,共9层网络。具体网络层信息见 (Caffe,LeNet)初始化训练网络(三) 第2部分本部分不介绍反向传播算法的理论原理,以下介绍基于对反向传播算法有一定的了解。1 入口信息Net::Backward()函数中调用BackwardFromTo函数,从网络最后一层到
2016-05-31 10:33:03 13711 8
原创 (CV)三维视觉
本文地址:1 仿射变换矩阵表示以二维坐标为例讲述仿射变换。变换前坐标为(x,y)(x,y),变换后坐标为(x′,y′)(x',y'),本文均使用齐次坐标系,且此处不介绍其次坐标。二维仿射变换保持了图像的“平直性”(即变换后直线还是直线)和“平行性”(平行线还是平行线)。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(F
2016-05-25 23:20:45 2787
原创 (CV,Math)射影几何
本文地址:计算机视觉中常涉及欧式几何(Euclidean Geometry)、仿射几何(Affine Geometry)、射影几何(Projective Geometry)、微分几何( Differential Geometry)。1 无穷远点元素对nn维欧式空间加入无穷远元素,并对有限元素和无穷远元 素不加区分,则他们共同构成nn维射影空间。一维射影空间是一条射影直线,
2016-05-25 23:06:53 7822 1
原创 (CV,Math)仿射几何
本文地址:1 仿射变换矩阵表示以二维坐标为例讲述仿射变换。变换前坐标为(x,y)(x,y),变换后坐标为(x′,y′)(x',y'),本文均使用齐次坐标系,且此处不介绍其次坐标。二维仿射变换保持了图像的“平直性”(即变换后直线还是直线)和“平行性”(平行线还是平行线)。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(Flip)、旋转(R
2016-05-25 00:15:37 5475
原创 (Paper)Robust Text Detection in Natural Scene Images
本文地址:《Robust Text Detection in Natural Scene Images》论文笔记这篇文章是2014年PAMI上的文章,是目前文本检测领域的state of the art.该算法是基于MSERs的,主要内容有:算法流程 1 Character candidates extraction 使用MSERs算法来产生字符候选区域,但是MSER算法可能产生过多的重复区域,
2016-05-17 19:52:28 4480 4
原创 (Paper)使用LSH对Twitter做首报道检测(FSD)
本文地址:《Streaming First Story Detection with application to Twitter》论文笔记这篇论文使用改进的LSH算法进行首报道检测,针对Twitter。LSH算法在多媒体检索里面也是常用的。主要内容:改进单纯应用LSH算法至FSD以提高精度继续改进以能处理网络流文本继续改进以能处理Twitter数据介绍FSD与LSH由于单纯把LSH(近似
2016-05-17 18:40:37 2339
原创 (Paper)Maximally Stable Extremal Regions(MSERs)
本文地址:论文笔记《RobustWide Baseline Stereo from Maximally Stable Extremal Regions》这篇文章有两部分内容:MSERs的定义与检测 相应的匹配算法(暂时同去了解)1 MSERs定义注意Extremal Region和Maximally Stable Extremal Region这两个概念。 Extremal Region:
2016-05-13 00:11:38 4763 1
原创 (Caffe,LeNet)前向计算(五)
本文地址:本部分剖析Caffe中Net::Forward()函数,即前向计算过程。从LeNet网络角度出发,且调式网络为测试网络(区别为训练网络),具体网络层信息见(Caffe,LeNet)初始化测试网络(四) 1 入口信息通过如下的调用堆栈信息可以定位到函数ForwardFromTo(其他函数中无重要信息)caffe::Net<float>::ForwardFromTo() at net.cpp
2016-05-06 18:33:31 16584 15
原创 (Caffe)编程小技巧
Cuda中要处理单位数据N大于可用的线程数量N’时以向量乘函数为例,mul_kernel(n,a,b,y)对长为n的a,b求内积,结果放入ytemplate <typename Dtype>__global__ void mul_kernel(const int n, const Dtype* a, const Dtype* b, Dtype* y) { CUDA_KERNEL_LOO
2016-05-02 13:36:47 5277
原创 (Cuda)存储器Memory(二)
本文地址1 Device Memory这是对后边的shared memory, global memory等的总称可分为linear memory和 CUDA arraysCUDA arrays为纹理获取做了优化,见纹理存储器对于线性存储器,一般用以下函数处理: 函数 描述 cudaMalloc() cudaMemcpy() cudaMallocPitch()
2016-05-02 01:16:18 3623
原创 (Cuda)基础知识(一)
本文地址http://blog.csdn.net/mounty_fsc/article/details/51092920本部分内容为[1]CUDA_C_Programming_Guide.pdf中笔记1 限定符1.1 函数限定符 限定符 执行 调用 __device__ device device __global__ device host(计算能力3.x可de
2016-05-02 00:11:27 7152
原创 (Caffe)卷积的实现
本文地址:http://blog.csdn.net/mounty_fsc/article/details/本部分介绍Caffe中卷积的实现。
2016-05-01 14:52:36 9695 2
论文笔记Generative Visual Manipulation on the Natural Image Manifold
2017-11-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人