![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 81
几维wk
这个作者很懒,什么都没留下…
展开
-
【CAM技术】一口气带你读完经典CAM(类别激活图)论文
一口气带你读完经典CAM(类别激活图)论文,简单易懂品味经典方法!原创 2023-07-25 15:28:49 · 642 阅读 · 0 评论 -
【弱监督学习】Semi-Supervised Semantic Segmentation Using Unreliable Pseudo-Labels
这是一篇在2022年发表在CVPR上的有关弱监督语义分割的文章,文章关注使用图像级标签进行语义分割弱监督训练。现有方法通常产生伪标签,然后通过某种方法对伪标签进行过滤,仅仅使用可靠的像素来进行弱监督训练,然而这样通常会损失大量的像素,导致许多没有被判定为可靠的像素没有被使用,为了提高无像素级标签数据的使用率,本文提出了了U2PL框架。原创 2022-11-01 11:34:12 · 1219 阅读 · 2 评论 -
【弱监督学习】End-to-end weakly supervised semantic segmentation with reliable region mining
这是一篇2022年发表在Pattern Recognition期刊上的一篇有关弱监督语义分割的文章。由于只使用图像级标签来训练语义分割模型扔充满挑战,并且现有弱监督方法都是两阶段的方法,缺少一个端对端的方法。所以本文提出了一个新的端对端弱监督语义分割方法。原创 2022-10-25 20:29:20 · 1596 阅读 · 3 评论 -
【弱监督学习】Weakly supervised segmentation of SAR imagery using superpixel and hierarchically adversarial
这是一篇2019年发表在Remote sensing期刊上的有关SAR图像语义分割的弱监督工作。这篇文章的动机是要解决现有的大多数方法通常忽略图像的外观和空间连续性、需要大量的训练数据、算法不能够实现实时性的问题。提出了一种结合条件GAN(CGAN)和CRF的一种弱监督语义分割方法。原创 2022-10-18 16:04:21 · 903 阅读 · 0 评论 -
【弱监督学习】Learning deep semantic segmentation network under multiple weakly-supervised constraints ...
本文通过提出了一个多弱监督损失和动态优化策略,解决了目前遥感图像分类中存在的domain-shift的问题,并且很好地利用了无标签数据。原创 2022-09-29 11:12:17 · 691 阅读 · 0 评论 -
【弱监督学习】Weakly Supervised Adversarial Domain Adaptation for Semantic Segmentation in Urban Scenes
本文着眼场景分割,主要解决在合成数据上训练的模型在真实数据上测试的性能下降的问题。通过构建一个DS网络,提取不同域中的object-level和pixel-level的特征,通过ODC和PDC进行对抗训练,从而使得DS能够更好地提取出domain-invariant的特征。整个训练过程中,Target域的数据只用到了object-level的标签,通过不精确(inexact)监督学习实现了Target域上的比较好的分割结果。原创 2022-09-27 16:23:26 · 624 阅读 · 0 评论 -
【GAN超分辨】Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure Synthetic Data
本文为ESRGAN的扩展,提出一个能够完全在合成数据上训练的面向真实场景的超分模型——Real-ESRGAN。原创 2022-04-06 17:58:32 · 4438 阅读 · 0 评论 -
【PatchGAN】Image-to-Image Translation with Conditional Adversarial Networks
PatchGAN论文重点记录原创 2022-01-26 16:36:15 · 6016 阅读 · 0 评论 -
【热成像超分辨率】 Unaligned Guided Thermal Super-Resolution
不用配准的引导式超分辨率原创 2022-01-24 16:12:07 · 3600 阅读 · 0 评论 -
【对比学习超分辨】Blind Image Super-Resolution via Contrastive Representation Learning
对比学习超分辨率原创 2021-12-14 15:37:40 · 3862 阅读 · 0 评论 -
【对比学习超分辨】A Practical Contrastive Learning Framework for Single Image Super-Resolution
基于对比学习思想的超分辨率文章。原创 2021-12-14 11:50:32 · 3783 阅读 · 2 评论 -
【热成像超分辨率】Channel Split Convolutional Neural Network (ChaSNet) for Thermal Image Super-Resolution
一篇CVPRW2021关于热成像超分辨的文章原创 2021-12-06 11:48:39 · 3419 阅读 · 1 评论 -
【热成像超分辨率】略读Thermal Image Super-resolution: A Novel Architecture and Dataset
要点1本文提出了一种新的CycleGAN结构有用热成像的超分辨率,并且提出了一个thermal图像的超分辨数据集(含有三种不同分辨率的数据集,是用三个不同的Thermal传感器拍的)。提出的结构生成器是由ResNet6构成,判别器是由PatchGAN构成。要点2之前的工作:《Thermal image superresolution through deep convolutional neural network. 》中用到的仅仅是101张分辨率为640x512的Thermal图像(没有不同分辨率的原创 2021-11-25 16:06:20 · 2907 阅读 · 1 评论 -
【超分辨率】略读21年超分SOTA新算法——SwinIR
要点1目前超分的SOTA算法是基于CNN的,几乎没有用Transformer的研究。所以本文提出了一个超分的baseline:SwinIR,它包含三个部分,浅层特征提取、深层特征提取和高质量图像重建。深度特征提取是由几个残差的Swin Transformer块(RSTB)组成,并且整体有一个残差连接。要点2网络结构如下:SR任务训练时损失函数采用L1损失,对于图像去噪和JPEG压缩伪影重建任务上,使用Charbonnier loss。要点3MLP源码实现:其实就是全连接网络,用了GE原创 2021-11-22 10:39:45 · 5838 阅读 · 1 评论 -
【超分辨率】何凯明新作:Masked Autoencoders Are Scalable Vision Learners
MAE。即可以说本文提出了一种新的自编码器,也可以说本文在计算机视觉领域提出了一个新的任务,即通过掩盖图像的一部分来利用没有掩盖的部分对图像进行重建。原创 2021-11-19 10:20:16 · 5015 阅读 · 3 评论 -
【超分辨率】略读ECBSR
2021ACM MM关于轻量级超分辨文章原创 2021-11-16 17:48:31 · 5627 阅读 · 3 评论 -
【自监督】何凯明新作MAE略读
要点1本文定义了一个新的任务:随机掩码图像重建任务。即随机的掩盖图像中的某些部分,然后重建出图像。要点2本文提出了一个掩码自编码器,用来解决随机掩码图像重建任务。该编码器是一个不对称的编码-解码器结构,将没有被掩盖的部分传入编码器进行编码,然后经过一个比较轻量级的解码器进行解码,从而实现重建任务。要点3作者总结说现在深度学习的方法大多数依靠不断加深模型来提高性能。在作者的研究中,在ImageNet上利用一个类似于NLP的简单方法就学到了一个强大的自编码器,这具有很强大的扩展性,让计算机视觉可能走原创 2021-11-16 10:07:17 · 2846 阅读 · 4 评论 -
【超分辨率】Unsupervised Degradation Representation Learning for Blind Super-Resolution
这是一篇CVPR2021年的无监督深度学习超分辨率的文章。本文提出了一个种基于无监督退化表示学习的盲超分辨方法,该方法学习简单的退化表示来区分处于整个表示空间中的不同退化表示而不是在像素级的空间进行估计。本文还提出了一个退化感知超分辨率网络(DASR) ,这个网络可以基于学习到的退化表示来完成对图像的超分辨率任务。原创 2021-11-08 12:24:57 · 3708 阅读 · 2 评论 -
【超分辨率】VDSR略读与训练细节
1.原文链接论文原文:Accurate Image Super-Resolution Using Very Deep Convolutional Networks2.前言这是一篇2016CVPR关于深度学习进行超分辨率的文章,核心思想是利用更深的网络和残差结构去完成SR任务的学习。3.核心问题使用更深的网络可以增加SR图像的质量,但是训练的收敛速度很慢。本文为了进一步提高SR图像的质量引入更深的模型,为了提高训练的收敛速度引入残差学习和提高学习率。4.整体结构整体的结构如上图,总的来看是一原创 2021-10-28 14:42:46 · 1191 阅读 · 0 评论 -
【超分辨率】回顾深度学习超分辨率开山之作SRCNN
论文地址:Image Super-Resolution Using Deep Convolutional Networks要点1:本文发表于2016年,是深度学习做超分辨率的开山之作,开启了超分辨率的深度学习时代,在进行深度学习超分辨率的研究过程中,这篇经典的文章还是很值得回味的。传统的基于稀疏编码的超分辨率方法都是分好多个步骤对图像进行处理,本文提出一个端到端的网络来直接学习超分辨率映射,并且效果超过了现有的所有传统方法。要点2:整体的处理流程分三步,首先对输入的LR图像进行块提取和特征表示、原创 2021-10-19 16:43:49 · 1148 阅读 · 0 评论 -
【超分辨率】5篇2021年CVPR超分辨率文章略读笔记
1.AdderSR: Towards Energy Efficient Image Super-Resolution要点1:本文采用加法网络(AdderNet)来实现对超分辨率任务的学习,使用加法是因为加法可以避免卷积产生的大量能量损耗,用人话来说就是卷积的乘法很费劲,很耗内存,用加法可能会更快。要点2:要想使用加法网络超分辨的任务,必须解决两个问题:第一个问题就是直接用加法网络无法很好地学习恒等映射(identity mapping),恒等映射就是ResNet中Shortcut短连接,即h(x)=原创 2021-10-19 12:25:38 · 3216 阅读 · 0 评论 -
【超分辨率】Closed-loop Matters: Dual Regression Networks for Single Image Super-Resolution
0 前言这是一篇CVPR2020年的文章的文章,创新点主要在于不仅让网络学习LR->HR的映射,还学习HR->LR来减小映射空间,解决不适定的问题。原创 2021-10-13 19:58:21 · 1139 阅读 · 0 评论 -
【机器学习】代价函数和梯度下降法
一、简介梯度下降法是机器学习中最为基础和常用的算法之一,其核心思想是通过求梯度的方法来找到代价函数的最小值,从而解决相应的拟合或者分类问题。而要想理解梯度下降算法,首先应该了解什么是代价函数。二、代价函数代价函数本质来说就是用来表示拟合函数的理想输出与实际输出之间的差距的一种函数。也就是说差距越大,算法学习的代价也就越大,所以梯度下降法的本质也就是不断地优化代价函数。1、平方差代价函数解...原创 2019-11-20 21:03:11 · 2143 阅读 · 0 评论 -
【视线估计】Appearance-Based Gaze Estimation via Evaluation-Guided Asymmetric Regression
这是一篇2018年北航博士Yihua Cheng发表的关于视线估计的论文,被ECCV收录。该论文通过多分支卷积神经网络提取双眼图像特征并结合头部姿态实现视线估计,通过设计非对称损失函数来估计双眼图像对于视线估计不同的重要性,最终实现比较好地视线预测。原创 2021-04-22 15:56:17 · 1905 阅读 · 2 评论 -
【论文详解】Deep Dual-resolution Networks for Real-time and Accurate Semantic Segmentation of Road Scenes
基于HRNet,本文提出一种新的深度双分辨率网络(deep dual resolution network,简称DDRNet)。DDRNet有两个并行的分支,深度分支用来获得高分辨率的特征表示,语义分支用来提取丰富的语义信息。原创 2021-04-12 14:59:58 · 2850 阅读 · 4 评论 -
【图像Transformer论文理解】AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE
完全抛弃CNN,Transformer也能进行图像识别原创 2021-03-17 17:04:48 · 1602 阅读 · 0 评论 -
【深度学习】Global Pooling,Depth-wise Convolution, Concatenate
最近在读BiSeNet的两篇论文,遇到了三个以前没有接触过的操作,本文来就这三个操作进行简单的讲解以及Pytorch代码实现的思路。1.Global PoolingGlobal Pooling,中文是全局池化,其实是一种比一般池化还要简单的池化操作。在一般的池化中,我们需要用一个类似卷积核一样的东西,来规定步长从而进行取最大值或者平均值的操作,也就是我们常说的最大池化或者平均池化,这种操作通常会改变特征图的尺寸,而改变后的尺寸计算与卷积的计算完全一致。而Global Pooling就十分简单了,它直接就原创 2020-11-17 12:46:09 · 1495 阅读 · 0 评论 -
【深度学习】关于SRCNN的输入和输出的一些细节
研究了近一周的SRCNN论文,遇到了N多坑人的问题,这东西虽然结构特别简单,但是论文中却存在着许多细节,看了好多博客感觉其他的博主对这些细节理解的都不太准确,当然我也不敢保证我的理解十分准确,仅仅依靠原文给大家做一些细节分析,想看论文原文的点这里:SRCNN细节一:训练时输入和输出的尺寸上面这个图是我截取的原文,从这里可以看出,在训练阶段,实际上输入的尺寸是3232,这个是训练扩大两倍进行S...原创 2019-12-10 16:06:38 · 2773 阅读 · 18 评论