- 博客(2)
- 资源 (3)
- 收藏
- 关注
原创 SGD,Adam,AdaGrad等优化算法
SGD无动量,下降慢,会陷入局部最优点SGD with Momentum有一个动量,一般值为0.9,即0.9的程度考虑以往的方向,0.1程度考虑当前梯度方向。类似高速上开车,大方向不变的同时,微调方向。SGD_NAG万一你陷入局部最优怎么办,周围都是略高的山,所以要爬上去,才能看到更广阔的的世界因此,某个时刻,不计算当前的梯度方向,跟着历史动量走一步,走完之后再根据下一点的
2018-01-26 16:23:39 1106
原创 Deep Stereo Matching with Explicit Cost Aggregation Sub-Architecture
与一般网络的区别普通算法结构与本文算法结构对比。其实这里指的普通结构就是GC-Net。本文网络不同之处就是代价聚合的过程更加牛逼,有aggregation guidance与aggregation proposal,这样聚合之后的代价空间一定是更好哒网络的总体介绍A1就是特征提取,用的是残差双塔结构 A2特征向量构成部分,A3用3D卷积计算特征向量之间的相似度,形成
2018-01-16 18:13:35 1332
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人