paper reading
文章平均质量分 82
holmes_MX
这个作者很懒,什么都没留下…
展开
-
CCNet_Criss-Cross Attention for Semantic Segmentation
0. 写作目的 好记性不如烂笔头。1. 主要思路 目前的self-attention需要生成 N * N 的affinity 矩阵(其中N = H * W), 作者提出存在一种更有效的方法? 因此作者提出了 Criss-Cross attention,使用“十字架” 的结构来代替 所有的位置(感觉使用“十字架”的paper很多,比如GCN使用十字街的conv,SPNet使用“十字架”的Pooling)。然后使用两次 criss-cross attention,这样可以...原创 2020-05-24 19:35:26 · 549 阅读 · 0 评论 -
OCNet_Object Context Network for Scene parsing
0. 写作目的 好记性不如烂笔头。1. 主要思想 使用self-attention引入同类的 object context map。 (感觉这个自监督,没有CVPR2020中 CPNet更直观) 如下图:2. 模型框架具体的 OCP 细节:OCP包括两部分: object context estimation 和 object cont...原创 2020-05-05 16:45:33 · 836 阅读 · 0 评论 -
ACNet_ Adaptive Context Network for Scene Parsing
0. 写作目的 好记性不如烂笔头。1. 主要思想 在feature 中对于全局上下文和局部上下文引入不同的权重。2. 模型的框架 GCM 和 LCM:2.1 GCM 的细节 主要思想是:计算全局特征p, [C, 1, 1],然后对于特征A 中的每一个位置计算距离,距离使用L2范式。依据最小的距离,和超参数derta,以及exp函...原创 2020-05-05 11:38:32 · 766 阅读 · 2 评论 -
refineNet_multi-path refinement network for high-resolution semantic seg
0. 写作目的 好记性不如烂笔头。1. 问题下采样导致损失了细节信息。2. 解决方法高层的信息和低层的信息都有用。 作者对所有的信息都使用。3. 模型具体细节:2x表示使用两次 RCU。逐层进行使用refineNet,如图2中的C图所示,对于下采样32倍的feature,refineNet只有一个输入。对于其他的refineNet则有两...原创 2020-05-02 21:55:03 · 395 阅读 · 2 评论 -
GCN_large kernel matters_improving semantic seg by global conv network
0. 写作目的 好记性不如烂笔头。1. 主要思想分割需要对像素进行分类,同时精确定位,而这两个任务是存在矛盾的。作者发现 large kernel conv对于分割更有效。主要是 使用1 * k + k *1 和 k * 1 + 1 * k 的GCN。2. 模型3. 实验结果 实验结果看,效果提升很大。从效果看,感觉 B...原创 2020-05-02 15:53:50 · 301 阅读 · 0 评论 -
PSPNet_ Pyramid Scene Parsing Network
0. 写作目的 好记性不如烂笔头。1. 问题ADE20K 数据集存在的一些问题:1, 错分: 图2第一行,船被误分为车了。 如果使用了全局信息,则可以避免这种情况。2。 迷惑的类别: 第二行,建筑和摩天大楼。3。 不易区分的类别: 枕头2. 解决方法融合全局信息提高分割结果2.1 模型模型:其中(b)feature map得到的...原创 2020-05-02 15:28:20 · 256 阅读 · 0 评论 -
cvpr2020_SPNet_ Strip Pooling: rethinking spatial Pooling for Scene Parsing
0. 写作目的 好记性不如烂笔头。1. 问题目前的 spatial pooling 都是 N*N的,这会限制他们捕捉特征。如分布狭长的2. 解决方法 使用1*k 和 k * 1的pooling。 同时结合来PSPNet 中的 Pyramid Pooling。2.1 SPM (Strip Pooling Module):来提高感受野。...原创 2020-05-02 15:09:34 · 1323 阅读 · 2 评论 -
cvpr2020_CPNet_ Context Prior for Scene Segmentation
0. 写作目的: 好记性不如烂笔头。1. 问题 目前的方法很少区分,不同类之间的上下文依赖,这可能会影响精度。如:2. 解决方法作者使用Context Prior 来同类和不同类的(类内和类间)的关系进行建模。作者引入 亲和力loss(affinity loss) 来监督 Context Prior layer 来学习 Context Pri...原创 2020-05-02 12:22:31 · 807 阅读 · 1 评论 -
FCN—— Fully Convolutional Networks for Semantic Segmentation
0. 写作目的 好记性不如烂笔头,为了后续快速查看。1. 模型架构: 其中上采样为线性插值。 融合策略为: element sum2. 评价指标:[Reference] paper:https://arxiv.org/pdf/1411.4038.pdf...原创 2020-05-02 11:58:03 · 249 阅读 · 0 评论 -
深度学习图像分类(二)——VGG论文理解
0. 写作目的好记性不如烂笔头。这里只是笔者记录的过程,如果读者有时间的话,建议看英文论文。1. 网络结构1.1 为什么采用更小的卷积主要思想是:将卷积核换成卷积核较小的。例如: 5 * 5 的卷积的视野与 2个 3 * 3 的卷积视野相同。7 * 7 的卷积视野与 3 个 3 * 3 的卷积视野相同。以1层 7 * 7的卷积换成 3层3 * 3的卷积为例进行说明:i)...原创 2018-10-09 13:51:47 · 5192 阅读 · 0 评论