- 博客(12)
- 收藏
- 关注
原创 论文笔记-深度估计(4) Semi-Supervised Deep Learning for Monocular Depth Map Prediction
CVPR2017_Semi-Supervised Deep Learning for Monocular Depth Map Prediction这是一篇用双目进行无监督学习估计深度的论文。对一幅图进行有监督训练进行深度估计时,由于采集设备的局限,并非图像的每个像素都有对应的真实值。于是作者提出在图像有真实值的地方进行监督学习,无真实值的地方进行无监督学习(最终作者发现对整个图像都进行无监...
2017-12-30 15:40:42 3971 12
原创 论文笔记-深度估计(3)Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale...
Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional Architecture 这篇文章是eigen 2015年的新文章,基于同样的模型,同样的初始化和大概相同的参数,可以用来得到深度,表面法向量或语义标签。1.网络介绍它的Pipeline如图: 三个stage的网
2017-12-29 23:50:56 4176 2
原创 论文笔记-深度估计(2) Fully Convolutional Networks for Semantic Segmentation
1.介绍该文讲述的是语义分割,但思路和框架和深度恢复是十分相似的,毕竟当前语义和深度问题本质上是一个像素级的分类问题。从该文3000+引用用量也可见该文章的巨大启发效果。所谓全卷积网络,是指由仅由卷积层、池化层和非线性激活函数层交错组织起来的网络。作者的贡献在于将非常热门且有效地做分类的卷积网络应用于语义分割中。整个框架是接受整张图像作为输入,用卷积做一个coarse的分类输出,然后将这些输出与每个
2017-12-29 23:48:03 2032
原创 论文笔记-深度估计(1)Depth Map Prediction from a Single Image using a Multi-Scale Deep Network
Depth Map Prediction from a Single Image using a Multi-Scale Deep Network作者认为以前估计深度的方法大概是基于几何代数、优化求解的方法来获得空间信息,但对于单张图片,仅仅基于几何信息是无法判断它的真实尺度的,因为没有先验信息的话,它的尺度是无法进行估计的。单张图深度估计,以人为例,需要综合考虑线条角度,透视关系,物体大小,图像位
2017-12-29 22:05:26 3531 4
原创 深度学习(2)-反卷积(deconvolution)
反卷积在论文中常常对应的英文有:Deconvolution (怪怪的“去卷积”)UpconvolutionFractionally strided convolutionBackward strided convolution意思是它的卷积的逆过程。它的另一个名字转置卷积(transpose convolution)更能表达它的数学过程。比如对4x4的图像进行3x3的卷积得到
2017-12-27 21:14:51 20072
原创 深度学习术语
一些名词:depth/depthcolumn/fibre——K:叠加的卷积核的个数。每个卷积核对一层图像I1进行处理得到I2(activationmap),下一个卷积核在I2基础上进行处理得到I3(activationmap),…,得到In,n-1就是depth。stride——S:步长,即进行卷积后该filter窗口往右/下移动的步长(像素个数)pad/padding——P:边界宽度(像素个数)。
2017-12-14 13:44:28 635
原创 cs31n_lesson6_7
生物学解释神经网络中的神经元(neurons):从输入(如图像)得到的一个输出最小单元称之为一个神经元。具体一点说,对于一个双层网络(1输入、1中间层、1输出),如果输入为一个样本,则隐藏层的维数H+最终输出维度数C,就是神经元的个数。一个神经元包括所需要的所有参数;包括一组wij(i=0,,D)w_ij(i=0,,D),b,以及激活函数这几个参数。比如XNXD∗WDXCX_{NXD}*W_{DXC
2017-12-14 08:50:14 618
原创 cs231n_lesson4-5
深度学习网络有好多名字,其中包括人工神经网络“Artificial Neural Networks” (ANN) 或多层感知机“Multi-Layer Perceptrons” (MLP)。当然谈到感知机有时特指不加激活函数的网络才是感知机。1.反向传播(backpropagation)相当于于链式法则。Patterns in backward flow: - add gate: 梯度与上一个梯度
2017-12-14 08:44:33 415
原创 cs231n_反向传播求导篇
我们已经知道基本的标量除以矩阵(或向量),矩阵(或向量)除以标量,以及稍微复杂一点的向量除向量[1]^{[1]},行向量除以向量除以矩阵,矩阵除以向量的方法,那么矩阵除以矩阵呢?例如: XN×DWD×C=fN×CX_{N\times D}W_{D\times C} = f_{N\times C} 对W求导: ∂f∂W=XT⋅fN×C\frac{\partial f}{\partial W}
2017-12-12 20:26:43 1055
原创 C/C++文件操作、输入输出备忘
1.C语言文件操作C language: FILE* fp; char ch; 注意是“r”而非‘r’ fp = fopen(“1.txt”, “r+”);//读写,除此之外用得比较多的有”a+”追加(也有读权限) if( NULL = fp) printf(“Failed to open the file”); ch = getchar(); //读写一个字符 fputc(
2017-12-10 16:56:57 355
原创 cs231nLesson1-3
cs231n每半年更新一次,最近看了新的版本,整理了下之前学习的笔记和作业。.Diffuculty of Recogonition:illumination, deformation, Background Clutter, Intraclass variation,etc..1.Nearest Neighbor Method(现在深度学习框架内很少使用)train:O(1) test:O(n)
2017-12-10 16:55:25 304
原创 深度学习(1)-深度学习中的核函数(激活函数)
1.核函数的作用与损失函数的设计核函数(kernel method,kernel trick)是机器学习中一种重要的方法。一般定义是将原始表达转换到一个隐式特征空间去,该空间具有更好的特征可分性质。 在机器学习中,(一层线性卷积结构+一层核函数)*N的特殊结构,能拟合任何函数的原因。但如果只有N层的线性结构,那最后的组合还是线性结构,就相当于以前的感知机(perceptron)。使得类似神经网络结
2017-12-10 15:36:13 9532
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人