翻译
松鼠的承诺
一个独自在外求学的游子!!!
展开
-
Learning FRAME Models Using CNN Filters for Knowledge Visualization
使用CNN过滤器学习FRAME模型以进行知识可视化卷积神经网络(ConvNet或CNN)已被证明在许多任务中非常成功 就像计算机视觉领域的人一样 在此概念文件中,我们研究了可分辨CNN的生成视角。尤其是,我们建议使用CNN在卷积层预先学习的高表达滤波器来学习生成FRAME(滤波器,随机场和最大熵)模型。 我们证明了该学习算法可以在自然场景中生成逼真的丰富对象和纹理图案。我们解释说,每个学习的模型在该模型采用的过滤器层之上的一层对应一个新的CNN单元。 我们进一步证明这是可能的使用生成的CNN模型(专家模原创 2020-11-08 16:36:16 · 308 阅读 · 0 评论 -
Generating Images from Captions with Attention
注意从字幕生成图像基于生成模型的最新进展,我们引入了一种根据自然语言描述生成图像的模型。 提出的模型以迭代方式在画布上绘制补丁,同时注意描述中的相关单词。在接受Microsoft COCO培训后,我们将我们的模型与几个基准生成模型进行了图像生成和检索任务比较。 我们证明,与其他方法相比,我们的模型可以产生更高质量的样本,并且可以生成具有新颖场景组成的图像,这些图像与数据集中以前看不到的字幕相对应。1 引言统计自然图像建模仍然是计算机视觉和图像理解中的基本问题。这项任务具有挑战性,激发了采用深度神经原创 2020-11-08 15:58:22 · 972 阅读 · 0 评论 -
Order-Embeddings of Images and Language
图像和语言的顺序嵌入上位性,文本含义和图像标题可以看作是单词,句子和图像上单个视觉语义层次的特殊情况。 在本文中,我们提倡对这种层次结构的偏序结构进行显式建模。> 为了实现这一目标,我们介绍了一种学习有序表示的通用方法,并展示了如何将其应用于涉及图像和语言的各种任务。> 我们表明,所得到的表示形式相对于上调预测和图像标题检索的当前方法提高了性能。1引言计算机视觉和自然语言处理越来越紧密地交织在一起。视觉方面的最新工作已经超越了对固定对象类别的区分,而是自动生成了图像的开放式语言描述(V原创 2020-10-25 15:58:43 · 958 阅读 · 2 评论 -
Show, Attend and Tell: Neural Image Caption Generation with Visual Attention
显示,参加和讲述:具有视觉注意的神经图像字幕生成摘要:受机器翻译和对象检测领域最新工作的启发,我们引入了一种基于注意力的模型,该模型可以自动学习描述图像的内容。> 我们描述了如何使用标准的反向传播技术,以确定性的方式训练模型,并通过最大化变分下界随机地训练模型。> 我们还通过可视化展示了模型如何能够自动学习将注视固定在显着对象上,同时在输出序列中生成相应的单词。> 我们通过三个基准数据集(Flickr8k,Flickr30k和MS COCO)的最新性能验证了注意力的使用。1.简介原创 2020-10-25 15:31:07 · 2194 阅读 · 0 评论 -
Expressing an Image Stream with a Sequence of Natural Sentences
用自然句序列表达图像流摘要:我们提出了一种检索图像流的自然句子序列的方法。由于普通用户经常在他们的特殊时刻拍摄一系列照片,因此最好考虑整个图像流以产生自然的语言描述。尽管几乎所有以前的研究都涉及单个图像和单个自然句子之间的关系,但我们的工作将输入和输出维度扩展到了图像序列和句子序列。为此,我们设计了一种称为相干递归卷积网络(CRCN)的多模式体系结构,它由卷积神经网络,双向递归神经网络和基于实体的局部相干模型组成。我们的方法直接从大量用户生成的博客文章资源中学习,作为文本图像并行训练数据。我们通过定量测原创 2020-10-18 23:28:09 · 316 阅读 · 0 评论