![](https://img-blog.csdnimg.cn/20200426211157313.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
【视觉图像】
文章平均质量分 96
图像处理 & 计算机视觉 (Computer Vision) 学习之路
何处闻韶
字节跳动-抖音-算法实习生
展开
-
【深度学习】详解 Swin Transformer (SwinT)
【深度学习】详解 Swin Transformer (SwinT)原创 2021-09-16 00:34:44 · 80483 阅读 · 63 评论 -
【图像处理】详解 最近邻插值、线性插值、双线性插值、双三次插值
插值 (Interpolation),通常指内插,既是离散数学名词,也是图像处理术语,二者的联系十分密切。作为图像放缩 (Scale) 的手段,常见的传统插值方法有:最近邻插值 (Nearest Neighbour Interpolation)、线性插值(Linear Interpolation)、双线性插值 (Bilinear Interpolation)、双三次插值 (Bicubic interpolation) 等乃至更高阶的线性插值方法。原创 2020-04-28 10:21:59 · 40191 阅读 · 5 评论 -
【深度学习】详解 Vision Transformer (ViT)
【深度学习】详解 Vision Transformer (ViT)原创 2021-07-18 00:20:37 · 95427 阅读 · 33 评论 -
【计算机视觉】Transformer 从 NLP 到 CV
一、前言CV(计算机视觉)领域一直是引领机器学习的弄潮儿。近年来更是因为 Transformer模型的横空出世而掀起了一阵腥风血雨。本文主要介绍 Transformers 背后的技术思想、在计算机视觉领域的应用情况、最新动态以及该架构相对于 CNN 的优势。读完这篇文章之后,你将能知道:为什么 Transformers 模型在 NLP 任务中能够力压群雄,变成 SOTA 模型的必备组件之一。 Transformers 模型的计算原理。 为什么说 Transformers 是对 CNN 的...转载 2021-03-20 13:08:19 · 1444 阅读 · 2 评论 -
【计算机视觉】详解 自注意力:Non-local 模块与 Self-attention (视觉注意力机制 (一))
绪论计算机视觉(computer vision)中,注意力机制(attention)的基本思想就是想让系统学会注意力 ——能够忽略无关信息而关注重点信息。近几年来,深度学习与视觉注意力机制结合的研究工作,大多数是集中于使用掩码(mask)来形成注意力机制。掩码的原理在于通过另一层新的权重,将图片数据中关键的特征标识出来,通过学习训练,让深度神经网络学到每一张新图片中需要关注的区域,也就形...转载 2020-04-11 17:49:42 · 32555 阅读 · 48 评论 -
【计算机视觉】详解分类任务的视觉注意力:SENet、CBAM、SKNet (视觉注意力机制 (二))
绪论视觉注意力机制 (一) 主要关注了视觉应用中的 Self-attention 机制及其应用 —— Non-local 网络模块,从最开始的了解什么是视觉注意力机制到对自注意力机制的细节把握,再到 Non-local 模块的学习。而本文主要关注视觉注意力机制在分类网络中的应用——SENet、SKNet、CBAM 。通常,将软注意力机制中的模型结构分为三大注意力域来分析:空间域、通道...转载 2020-04-11 20:30:59 · 24624 阅读 · 15 评论 -
【计算机视觉】详解 Non-local 与 SENet、CBAM 模块融合:GCNet、DANet (视觉注意力机制 (三))
绪论视觉注意力机制 (一)阐述了视觉应用中的 Self-attention 机制及其应用 —— Non-local 网络模块;视觉注意力机制 (二)主要分析了视觉注意力机制在分类网络中的应用——SENet、CBAM、SKNet 。它们构成了视觉注意力机制中的基本模块,本节将主要介绍融合 Non-local 模块和 SENet 模块的全局上下文建模网络(Global Context N...转载 2020-04-11 20:51:22 · 9442 阅读 · 1 评论