paper
文章平均质量分 82
EwanRenton
这个作者很懒,什么都没留下…
展开
-
Visual Relationship Detection with Language Priors
《visual relationship detection with language priors》,这也是李飞飞在CNCC上提到的一片重要论文,发表于ECCV。此论文用来进行关系检测的主要方法是:分别训练两种视觉模型,一种来识别物体,一种来识别关系。关系识别的一个挑战在于没有足够的关系训练样本。比如说骑行这个动作,图片可能是人骑马、人骑车、人骑骆驼等等,想要将这些样本统统搜集起来是高耗能...原创 2018-07-27 15:53:00 · 5511 阅读 · 0 评论 -
Object Detection(一)RCNN
近段时间,笔者开始系统的看了看目标检测方面的文章,以后可能会在这个方向上发展。所以这里准备写个目标检测系列,先是RCNN系列(从RCNN一直到Mask RCNN,以及YOLO和SSD)。之后可能还会写语义分割,目标追踪,3D检测方向blog。区域卷积神经网络(R-CNN)2014年 CVPR RBG大神-Ross Girshick开创性的提出区域卷积神经网络(Regions with C...原创 2018-09-26 01:29:52 · 1337 阅读 · 0 评论 -
Object Detection(二)Fast R-CNN
本篇是Object Detection系列第二篇 Fast R-CNN在上一篇blog中,介绍了R-CNN,最后提到了R-CNN的几个缺点,其中最显著的速度问题,因为要进行上千次的CNN前向运算,导致整个模型的运行速度过慢。下面笔者就来介绍下R-CNN的改进版,Fast R-CNN.虽然在Fast RCNN之前有提出过SPPnet算法来解决RCNN中重复卷积的问题,但是SPPnet依然...原创 2018-09-26 16:52:42 · 1173 阅读 · 0 评论 -
Object Detection(三)Faster R-CNN
之前介绍了R-CNN,Fast R-CNN,这是本系列的第三篇 Faster R-CNN在上一篇介绍Fast R-CNN的blog中介绍了,Fast R-CNN 对整张图像提特征,再使用RoI Pooling根据proposal从全图的feature map中提取相同大小的特征。替代了R-CNN中上千次的前向运算,提高了模型的运行速度。但是,由于Fast R-CNN region prop...原创 2018-09-27 00:16:30 · 1333 阅读 · 0 评论 -
Object Detection(四)Mask R-CNN
之前介绍了 R-CNN Fast R-CNN Faster R-CNN,这是本系列的第四篇Mask R-CNNMask R-CNN是何凯明在Faster R-CNN基础上加入一个新分支,集Object Detection 和 Instance Segmentation于一体的新网络。该网络在进行目标检测的同时完成了高质量的实例分割。首先我们先来看看实例分割(Instance segment...原创 2018-09-27 17:13:35 · 3479 阅读 · 0 评论 -
GAN Dissection: Visualizing and Understanding Generative Adversarial Networks
GAN Dissection: Visualizing and Understanding Generative Adversarial Networks 该论文介绍了一个可视化和理解生成网络学得结构的框架,通过定义一些可解释的单元并通过干涉这些单元来探究生成网络中的因果关系。GANpaint工具本文还提供了一个非常有意思的demo,只要鼠标划过,GAN 就可以立即在你指定的地方画出云彩、...原创 2018-12-07 17:03:46 · 2180 阅读 · 0 评论 -
Unsupervised Attention-guided Image-to-Image Translation 解读
本文和上一篇show,Attend一样,都是基于attention机制的图像转换。两篇文章的工作大体是相似的,但是这篇文章的代码开源了。这篇文章和上篇文章一样都是做图像域转换,并且在转换时都想要只关注图像中的前景,达到前景转换而背景不变的效果。 在上一篇blog中已经介绍过了图像域转换,所以这里就直接开始讲作者提出的模型了。Model Fs->t表示从S域...原创 2018-08-25 15:58:37 · 5499 阅读 · 8 评论 -
Show, Attend and Translate: Unsupervised Image Translation with Self-Regularization and Attention 解读
本文提出了一种结合Attention机制和self-Regularization的无监督图像域转换模型。问题为了解决两个域间的图像转换问题,需要学习从一个域到另一个域的映射,将X域中的图像转换到Y域。 本文的目的是使生成的图像看起来和源图像(X域)是相似的,同时具备Y域图像的特征。 如上图所示,图像从Horse域转换到了Zebra域,但是背景部分并没有变化。方法...原创 2018-08-24 15:40:54 · 3792 阅读 · 0 评论 -
Self-Attention Generative Adversarial Networks解读+部分代码
引言这篇是文章是Ian goodfellow他们的新工作,在GAN中引入Attention。 在文章的摘要中作者主要突出了三点。 Self-Attention Generative Adversarial Network(SAGAN)是一个注意力驱动,长范围 关联模型(attention-driven, long-range dependency modeling )。 传统的GA...原创 2018-08-02 16:44:01 · 8616 阅读 · 6 评论 -
Attention-GAN for Object Transfiguration in Wild Images
引言笔者前两天看到了这篇文章,因为最近也一直在看这方面就写篇博客记录一下。 这篇文章主要是结合了Attention机制来做的Object TransfigurationObject Transfiguration用传统的GAN网络做Object Transfiguration 时一般有两个步骤:检测感兴趣的目标将检测到的目标转换到另一个域于是作者将这中传统的生成网络,分...原创 2018-08-01 15:10:08 · 5467 阅读 · 0 评论 -
Learning to discover cross-domain relations with gan
Abstract人类可以在无监督的情况下轻易地发现两个东西之间的联系(或者说相同点), 而想让机器学习的话需要人类给他们配对作为ground truth然后再进行训练. 为了避免这种配对的麻烦, 提出了DiscoGANIntroduction这篇文章把”寻找两种图片的关系”变成了”用一种风格的图片生成另一种风格”(利用GAN),这是本文解决”寻找relation”的思路所在. 不需要...原创 2018-07-26 16:56:00 · 1995 阅读 · 0 评论 -
A simple neural network module for relational reasoning
Abstract关系推理是智能行为中的核心,但是实验证明关系推理很难用神经网络来学习。本文描述了如何使用Relation Networks 作为一种即插即用的Model从根本上解决关系推理问题。Introduction之前提到推理实体及实体见属性间的关系是智能行为中很重要的部分。 1514466203466_2.pngRelational question r...原创 2018-07-27 15:23:00 · 3394 阅读 · 0 评论 -
Learning deep representations of fine-grained visual descriptions
Abstract最先进的zero-shot视觉识别将学习视为图像和补充信息的联合问题。其中对视觉特征来说最有效的补充信息是属性-描述类与类之间的共享特征的手动编码向量。尽管算法表现很好,但是属性任然是有局限的:更细粒度的识别需要相当多的属性 属性不提供自然语言界面(attributes do not provide a natural language interface)(不能显式的表...原创 2018-07-27 15:49:00 · 3759 阅读 · 0 评论 -
AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks
《AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks》是CVPR 2018 文本生成图像的文章,是StackGAN++的后续工作。Abstract在本文中作者提出了一个 Attentional Generative Ad-versarial Net...原创 2018-12-06 02:19:19 · 3351 阅读 · 4 评论