- 博客(6)
- 资源 (3)
- 收藏
- 关注
原创 RuntimeError: The size of tensor a (96) must match the size of tensor b (95) at non-singleton dimens
复现PSMNet时候出现的bug。出错在output = model(imgL,imgR)一开始以为左右两图维度不一致。换成output = model(imgR,imgR)之后依旧报错翻墙查阅pytorch资料If two tensors x, y are “broadcastable”, the resulting tensor size is calcul
2018-03-30 14:29:06 26726 18
原创 Pyramid Stereo Matching Network
这篇文章主要有两点,SPP与3d卷积3.1 Network Architecture一般的网络第一个卷积都是用的7×7卷积,因为感受野要大,可是这样子的话计算复杂度较大,本文用三个串联的3×3的卷积去做这样的事情,同样的感受野,计算量大大降低,可以一试。conv0~conv4是残差块用来提取unary feature的。后面就是SPP。用来提取文本信息。再concat左右特征到cost volum...
2018-03-29 20:46:20 2527 7
转载 Adam那么棒,为什么还对SGD念念不忘 (1)
“ 说到优化算法,入门级必从 SGD 学起,老司机则会告诉你更好的还有AdaGrad / AdaDelta,或者直接无脑用 Adam。可是看看学术界的最新 paper,却发现一众大神还在用着入门级的 SGD,最多加个 Momentum 或者 Nesterov,还经常会黑一下 Adam。这是为什么呢?”机器学习界有一群炼丹师,他们每天的日常是:拿来药材(数据),架起八卦炉(模型),点着六味真火(优化...
2018-03-29 14:26:00 3541
转载 Adam那么棒,为什么还对SGD念念不忘 (2)
上篇文章中( Adam 那么棒,为什么还对 SGD 念念不忘 (1) —— 一个框架看懂优化算法 ),我们用一个框架来回顾了主流的深度学习优化算法。可以看到,一代又一代的研究者们为了我们能炼(xun)好(hao)金(mo)丹(xing)可谓是煞费苦心。从理论上看,一代更比一代完善,Adam/Nadam已经登峰造极了,为什么大家还是不忘初心SGD呢?举个栗子。很多年以前,摄影离普罗大众非常遥远。十年...
2018-03-29 14:24:16 1612 1
原创 What Makes Good Synthetic Training Data for Learning Disparity and Optical Flow Estimation?
物体形状与动作
2018-03-28 20:56:54 402
原创 EdgeStereo: A Context Integrated Residual Pyramid Network for Stereo Matching
3 Approach先介绍原始的CP-RPN,接着介绍端到端多任务的EdgeStereo,包括HED网络以及CP-RPN与HED之间的关系3.1 CP-RPN三部分:local stereo volume extraction 提取成本向量context pyramid 内容金字塔2-D编解码(残差金字塔)local stereo volume extracti
2018-03-23 09:17:04 1800 4
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人