- 博客(5)
- 收藏
- 关注
原创 FlowNet 2.0: Evolution of Optical Flow Estimation with Deep Networks——论文翻译
摘要FlowNet证明光流估计可以作为学习问题。然而,关于光流法的最好技术仍然由传统方法实现。特别是在小位移和实际数据方面,FlowNet无法与多种方法竞争。在本文中,我们提出了光流的端到端学习的概念,并使其工作得非常好。质量和速度的大幅提升是由三个主要因素造成的:首先,我们关注训练数据,并表明在训练期间提供数据计划非常重要。其次,我们开发了一种堆叠式结构,其中包括使用中间光流对第二幅图像进行warp操作。第三,我们通过引入专门针对小运动的子网络来详细关注小位移。 FlowNet 2.0速度仅略低于原始F
2020-08-13 21:07:27 828
原创 OpticalFlowEstimationusingaSpatialPyramidNetwork——论文翻译
OpticalFlowEstimationusingaSpatialPyramidNetwork——论文翻译论文地址:https://arxiv.org/abs/1611.0085( 自己翻译的,有些小问题见谅,欢迎批评。)利用空间金字塔网络的光流估计0. 摘要我们学习通过结合经典的空间金字塔公式和深度学习来计算光流。该方法通过在每个金字塔层次上通过当前流估计扭曲一对图像并计算流的更新,以由粗到细的方法估计大的运动。我们在每一层训练一个深度网络来计算流更新,而不是在每一层金字塔上的目标函数
2020-08-06 16:15:58 1107
原创 第三次学习心得体会
优化与深度学习优化与估计尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性)优化在深度学习中的挑战:(1)局部最小值f(x)=xcosπx(2)鞍点(3)梯度消失梯度下降目前我们大多数遇到的问题都可以建成最优化模型进行求解。通过优化方法可以训练出最优化的模...
2020-02-25 21:03:59 2049
原创 第二阶段学习笔记
过拟合、欠拟合及其解决方案模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性...
2020-02-19 21:19:39 252
原创 第一阶段学习笔记
线性回归模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:price=warea⋅area+wage⋅age+b损失函数在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 ...
2020-02-14 20:20:56 212
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人