deeplearning
文章平均质量分 71
kasdlj
sdaad
展开
-
SGD,Adam,AdaGrad等优化算法
SGD无动量,下降慢,会陷入局部最优点SGD with Momentum有一个动量,一般值为0.9,即0.9的程度考虑以往的方向,0.1程度考虑当前梯度方向。类似高速上开车,大方向不变的同时,微调方向。SGD_NAG万一你陷入局部最优怎么办,周围都是略高的山,所以要爬上去,才能看到更广阔的的世界因此,某个时刻,不计算当前的梯度方向,跟着历史动量走一步,走完之后再根据下一点的原创 2018-01-26 16:23:39 · 1107 阅读 · 0 评论 -
UnsupervisedMonocular Depth Estimation with Left-Right Consistency
为什么能注意到这篇文章呢,因为它是端到端,同时在loss处可以达到左右一致性检测。就是将post-processing结合到了端到端之中。因此,我很注重它的loss。一般接触的算法都是supervise的,就是都需要质量比较好的ground truth。这篇还有个贡献就是不需要ground truth也依旧可以训练。以图像重建loss可以生成disparity。听说结果比supervise原创 2017-08-03 18:25:24 · 9920 阅读 · 7 评论 -
ActiveStereoNet: End-to-End Self-Supervised Learning for Active Stereo Systems
Network architectureLoss function主要用的左图与reconstructioned的左图之间的差异,叫做photometric loss,然后亮处像素之间的差异一定会比暗的地方的差异大的。所以像素之间的residual是跟像素的亮度有关。然而,亮度与视差实际上是不相关的。所以,需要消除亮度的影响。因为非监督里面,的确loss是像素之间的loss。Wei...原创 2018-08-17 09:43:33 · 1713 阅读 · 2 评论