![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 86
Collapsar_G
这个作者很懒,什么都没留下…
展开
-
RiFeGAN: Rich Feature Generation for Text-to-Image Synthesis from Prior
摘要 文本到图像的合成是一项具有挑战性的任务,它从文本序列中生成真实的图像,与相关的图像相比,文本序列所包含的信息有限,因而具有模糊性和抽象性。有限的文本信息仅对场景进行部分描述,会使生成过程复杂化,对其他细节进行含蓄的补充,从而导致图像质量低下。 为了解决这个问题,我们提出了一种新的富特征生成文本到图像合成,称为RiFeGAN,以丰富给定的描述。为了提供更多的视觉细节,避免冲突,RiFeGAN 利用了 attention-based caption matching model,从先验知识中选择并提炼出t原创 2021-04-24 22:45:58 · 709 阅读 · 2 评论 -
PyTorch 学习笔记
PyTorch 简介 PyTorch是一个基于Python的科学计算包,它主要有两个用途: 类似Numpy但是能利用GPU加速 一个非常灵活和快速的用于深度学习的研究平台 PyTorch 安装 需要配置好CUDA,然后安装对应版本的torch,可以选择下载好包后本地pip install。 Tensor Tensor类似于numpy的ndarry,但是可以用GPU加速来计算。 使用前需要导入torch的包: from __future__ import print_function import原创 2021-04-24 22:42:50 · 214 阅读 · 0 评论 -
AttnGAN
AttnGAN 摘要 本文提出了一种注意力生成对抗网络(AttnGAN),该网络通过注意力驱动的多阶段细化来实现细粒度的文本到图像生成。借助注意力生成网络,AttnGAN可以通过关注自然语言描述中的相关单词来合成图像不同子区域的细粒度细节。 此外,提出了一种注意力集中的多模态相似度模型,以计算出细粒度的图像-文本匹配损失,以训练生成器。 AttenGAN明显优于现有的技术,在CUB数据集上比之前的最优结果提升14.14%,在更具挑战性的COCO数据集上提高了170.25%。 还可以通过可视原创 2021-04-24 22:41:21 · 3566 阅读 · 0 评论 -
SoftMax函数
SoftMax 函数 Softmax在机器学习中有非常广泛的应用,刚看到论文时,一直奇怪SoftMax到底是什么东西,接下来就简要介绍一下什么是SoftMax函数。 softmaxsoftmaxsoftmax用来将多个输入映射到[0,1]空间去,且和为1,因此可以当作概率来使用。 假设我们有一个数组VVV,ViV_iVi表示VVV中的第iii个元素,那么这个元素的softmax值就是: Si=ei∑jej S_{i}=\frac{e^{i}}{\sum_{j} e^{j}} Si=∑jejei原创 2021-04-24 22:39:12 · 342 阅读 · 0 评论 -
RNN
RNN 循环神经网络(Recurrent Neural Network,RNN)是一种用于处理序列数据的神经网络。相比一般的神经网络来说,他能够处理序列变化的数据。比如某个单词的意思会因为上文提到的内容不同而有不同的含义,RNN就能够很好地解决这类问题。 为什么需要RNN 普通的神经网络都只能处理一个个的输入,不能提取前后输入之间的关系,而在有些情况下,前后两次输入之间的关系是有用的,如在NLP中。 当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列;当我原创 2021-04-24 22:38:03 · 106 阅读 · 0 评论 -
LSTM
什么是LSTM LSTM是SimpleRNN的变体,用来解决RNN中梯度消失的问题,相比普通的RNN,LATM在长序列中表现更好。 LSTM的原理 LSTM结构(图右)和普通RNN的主要输入输出区别 RNN通常只有一个传递状态hth^tht, 而LSTM通常有两个状态:ctc^tct和hth^tht; 可以将ctc^tct看作一个传送带,包含了RNN网络中每个时间结点的信息,常输出的ctc^tct是上一个状态传过来的ct−1c^{t-1}ct−1加上一些数值。 而hth^tht通常在不同结点差别很大原创 2021-04-24 22:31:38 · 255 阅读 · 0 评论 -
注意力机制
Attention机制的引入 通用近似定理:在人工神经网络的数学理论中, 通用近似定理(或称万能近似定理)指出人工神经网路近似任意函数的能力[1]。 通常此定理所指的神经网路为前馈神经网路,并且被近似的目标函数通常为输入输出都在欧几里得空间的连续函数。但亦有研究将此定理扩展至其他类型的神经网路,如卷积神经网路[2][3]、放射状基底函数网路[4]、或其他特殊神经网路[5]。 此定理意味着神经网路可以用来近似任意的复杂函数,并且可以达到任意近似精准度。但它并没有告诉我们如何选择神经网络参数(权重、神经元数量原创 2021-04-24 22:23:41 · 584 阅读 · 0 评论