自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

序章

一只对什么都感兴趣的程序狗的学习之路

  • 博客(11)
  • 资源 (2)
  • 问答 (1)
  • 收藏
  • 关注

原创 【语义分割】Hierarchical Multi-Scale Attention for Semantic Segmentation

摘要多尺度推理通常用于改善语义分割的结果。 多个图像比例通过网络传递,然后将结果与平均或最大池合并。 在这项工作中,我们提出了一种基于注意力的方法来组合多尺度预测。我们表明,在一定尺度上的预测更适合解决特定的故障模式,并且网络学会在此类情况下倾向于使用这些尺度以生成更好的预测 。 我们的注意力机制是分层的,因此与其他最近的方法相比,其训练内存效率大约高4倍。 除了可以进行更快的训练外,这还使我们可以使用更大的农作物进行训练,从而提高了模型的准确性。 我们在两个数据集上演示了该方法的结果:城市景观和Map

2020-07-03 12:43:00 4916 3

原创 【语义分割】【总结】Object-Contextual Representations for Semantic Segmentation

主要贡献提出了一种新的关系上下文方法,该方法根据粗分割结果学习像素与对象区域特征之间的关系来增强像素特征的描述。特点:1.与之前的关系上下文方法(如non-local、dual attention、ocnet等)不同的是对对象进行了区分,学习了像素-对象区域之间的关系2.可以理解为一种对粗分割的后操作处理整体结构将上下文像素划分为一组软对象区域,每个软对象区域对应一个类别,即从深层网络计算出的粗分割。 通过聚合相应对象区域中的像素表示作为每个对象区域的表示。 使用对象上

2020-06-04 12:41:57 6083 1

原创 【语义分割】【2019】Object-Contextual Representations for Semantic Segmentation

摘要在本文中,我们解决了语义分割的问题,并将重点放在用于稳健分割的上下文聚合策略上。我们的动机是像素的标签是像素所属对象的类别。我们提出一种简单而有效的方法,即对象上下文表示,通过利用相应对象类的表示来表征像素。首先,我们基于由地面真实分割监督的特征图构造对象区域,然后计算对象区域表示。其次,我们计算每个像素与每个对象区域之间的表示相似度,并使用对象上下文表示来增强每个像素的表示,这是所有对象...

2020-06-01 23:00:50 5835 1

原创 【笔记】多尺度方法

1.定义所谓多尺度,实际上就是对信号的不同粒度的采样,通常在不同的尺度下我们可以观察到不同的特征,从而完成不同的任务。通常来说粒度更小/更密集的采样可以看到更多的细节,粒度更大/更稀疏的采样可以看到整体的趋势。2.常用架构卷积神经网络通过逐层抽象的方式来提取目标的特征,其中一个重要的概念就是感受野。如果感受野太小,则只能观察到局部的特征,如果感受野太大,则获取了过多的无效信息,因此研究人员一直都在设计各种各样的多尺度模型架构,主要是图像金字塔和特征金字塔两种方案,但是具体的网络结构可以分为...

2020-05-25 16:19:15 9383

原创 【综述】【场景文字识别】Text Recognition in the Wild: A Survey

摘要文本的历史可以追溯到数千年前。 在广泛的基于视觉的应用场景中,文本携带的丰富而精确的语义信息非常重要。 因此,自然场景中的文本识别已经成为计算机视觉和模式识别领域的活跃研究领域。 近年来,随着深度学习的兴起和发展,许多方法在创新,实用性和效率方面都显示出了希望。 本文旨在(1)总结与场景文本识别相关的基本问题和最新技术; (2)介绍新的见解和想法; (3)对公开资源进行全面审查; (4)指...

2020-05-13 16:16:56 5401

原创 Numpy transpose函数理解

现在我们有一个三维数组AA=[ [ [ 0, 1, 2], [ 3, 4, 5], [ 6, 7, 8] ], [ [ 9, 10, 11], [12, 13, 14], [15, 16, 17] ], [ [18, 19, 20], [21, 22, 23], [24, 25, 26]...

2019-11-02 15:30:10 1167

原创 深度学习笔记(3)数值计算

 1.上溢和下溢(1)舍入误差:指运算得到的近似值和精确值之间的差异。如果在一系列运算中的一步或者几步产生了舍入误差,在某些情况下,误差会随着运算次数增加而积累得很大,最终得出没有意义的运算结果。(2)下溢当接近0的数被四舍五入为零时发生下溢。若使用此类数作为除数或取其对数时(会产生无穷大的数,进一步计算)可能会返回非数字的结果。(3)上溢当大量级的数被近似为∞或-∞时发生...

2018-11-04 22:02:36 447

原创 Tensorflow 变量机制

最近一直在跟着《TensorFlow:实战google深度学习框架》学习Tensorflow,学到第5.3节变量管理以及5.4节模型持久化的时候忽然发现基础好像学的还是不够扎实,被变量的使用搞得一脸懵逼。书中讲的还是很详细的,我针对一些有疑问的定义进行了实验,这里总结一下。问题1:tf.Variable中不指定name参数会怎样?运行以下程序a=tf.Variable(tf.cons...

2018-10-31 19:48:34 897

原创 深度学习笔记(2) 概率与信息论

1.概率论与信息论概率论使我们能够作出不确定的声明以及在不确定性存在的情况下进行推理,而信息论使我们能够量化概率分布中的不确定性总量2.概率的意义(1)频率派概率:概率与事件发生的频率相联系(频率派把需要推断的参数θ看做是固定的未知常数,即概率θ虽然是未知的,但最起码是确定的一个值,同时,样本X是随机的,所以频率派重点研究样本空间,大部分的概率计算都是针对样本X 的分布)(2)贝叶...

2018-10-29 15:39:45 1626 1

原创 深度学习笔记(1) 线性代数

1.标量与向量(1)标量:只有一个元素的矩阵(2)向量:只有一列的矩阵,通常写为x(3)标量与矩阵标量c和矩阵B相加或标量c和矩阵B相乘时,需要将其与矩阵的每个元素相加或相乘,即或(4)向量与矩阵向量b和矩阵A相加,需要将向量b和矩阵A的每一行相加,即(5)向量点积相同维度,可看作是矩阵乘积,且满足交换律,即;或写作(6)矩阵乘积两个矩阵相乘的意义是将右边矩...

2018-10-28 13:02:36 517

原创 矩阵与凸优化(1) 向量

一、向量与向量空间1.向量:2.向量空间:关于向量加法和数乘封闭的向量集合,且满足:(1)向量加法结合律:u + (v + w) = (u + v) + w;(2)向量加法交换律:v + w = w + v;(3)向量加法的单位元:V 里有一个叫做零向量的 0,∀ v ∈ V , v + 0 = v;(4)向量加法的逆元素:∀v∈V, ∃w∈V,使得 v + w = 0;...

2018-10-13 22:43:33 1213

计算机视觉中的注意力机制

汇总了自Non-local和SENet之后的十几篇发表于CVPR/ICCV的经典的注意力方法,包括cbam、a2net、psanet、danet、apcnet、sknet、ccnet、gcnet、annnet、ocrnet、sanet、ecanet

2020-09-23

deeplab.pptx

本ppt包含了deeplab v1、deeplab v2、deeplab v3、deeplab v3+的个主要模块以及改进过程

2020-05-08

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除