论文精读
文章平均质量分 92
俯仰天地
AI Compiler Leaner
展开
-
【论文精读】(SGAN)Stacked Generative Adversarial Networks
Stacked Generative Adversarial Networks简要解读原创 2021-12-02 19:24:05 · 3695 阅读 · 0 评论 -
【论文精读】(WGAN前)Towards Principled Methods For Training Generative Adversarial Networks
Towards Principled Methods For Training Generative Adversarial Networks文章目录Towards Principled Methods For Training Generative Adversarial Networks全文梳理摘要1. 介绍训练生成模型的传统方法生成对抗网络训练生成模型的方法2. 不稳定的来源2.1 完美辨别器定理2.2 每个代价函数的后果和问题2.2.1 原始的代价函数2.2.2 用−logD-\log D−l原创 2021-11-30 13:27:17 · 4961 阅读 · 4 评论 -
【论文精读】Data Augmentation Generative Adversarial Networks(DAGANs)
Data Augmentation Generative Adversarial Networks摘要神经网络的有效训练需要很多数据,在低数据情况下,参数是欠定的,学到的网络泛化能力差。数据增强通过使用存在的数据有效的缓和了这个问题,但是标准的数据增强仅能产生有限的看似合理的用来代替的数据。鉴于有可能产生更广泛的增强数据,作者设计和训练了一种生成模型进行数据增强。这种模型基于条件生成对抗模型,从源域获取数据,学习获取任何形式的数据并泛化成其他同类的数据。由于这种生成过程不依赖于这些类别,所以它可能原创 2021-11-26 17:52:05 · 2321 阅读 · 0 评论 -
【论文精读】(CGAN)Conditional Generative Adversarial Nets
Conditional Generative Adversarial Nets关于原版的生成对抗网络模型以及公式推导可以参考:【论文精读】对Generative Adversarial Net的一点理解摘要 生成对抗网络最近介绍了一种新的方法来训练生成模型。本文将介绍生成对抗网络的条件版本,通过简单的输入数据yyy来构建,作者希望生成器和辨别器都能够被训练。 作者展示了此模型能够生成以类标签为条件的MNISTMNISTMNIST数字。 作者还展示此模型如何能够用来学习一个多模态模型,并且提供原创 2021-11-23 08:03:02 · 2535 阅读 · 0 评论 -
【论文精读】对Generative Adversarial Net的一点理解
Generative Adversarial Net摘要 作者提出了一种新的框架,通过对抗来评估生成模型,通过同时训练两个模型:用来模拟数据分布生成模型G,以及辨别模型D,用来评估采样来自训练数据而非生成模型G的概率。 G的训练过程是将D犯错的概率最大化,也就是让D分辨不出训练数据和生成数据的区别。 在任意函数G和D的的空间中存在一个独一无二的解,也就是G能够生成D无法分辨数据,以至于任意的数据被D认为是来自训练数据的概率的 12\frac{1}{2}21. 在G和D被定义为多层感知机的原创 2021-11-22 11:23:54 · 1095 阅读 · 0 评论 -
【论文精读】(Hightway Network)Training Very Deep Network 与残差网络对比
Training Very Deep Network(Hightway Network)文章目录Training Very Deep Network(Hightway Network)摘要1. 介绍&之前的工作2. 公路网络个人理解2.1 构建公路网络2.2 训练深度公路网络3. 实验3.1 优化3.2 MINISTMINISTMINIST3.3 CIFAR−10和CIFAR−100CIFAR-10和CIFAR-100CIFAR−10和CIFAR−1003.3.1 与FitnetsFitnets原创 2021-11-21 17:30:27 · 866 阅读 · 0 评论 -
【论文精读】Network In Network(1*1 卷积层代替FC层 global average pooling)
Network In Network文章目录Network In Network摘要1. 介绍传统卷积网络有什么问题?相同点和不同点平均池化带来的好处?2. 卷积神经网络传统卷积神经网络的问题:之前的改进工作之前改进工作存在的问题:本文所做的改进:3. NetWork In Network3.1 MLP卷积层为什么选择多层感知机?==什么是级联跨通道带参数的池化层(cascaded cross channel parametric pooling)==3.2 全局平均池化FC层有什么问题?本文的解决方法本原创 2021-11-20 23:54:49 · 902 阅读 · 0 评论 -
【论文精读】(GoogleNet&&Inception Module)Going deeper with Convolutions
Going deeper with Convolutions摘要 提出了一个代号为 InceptionInceptionInception的卷积神经网络结构,此结构在ILSRC2014ILSRC2014ILSRC2014分类和检测中达到了先进水平。这种结构最主要的特点是提升了网络中计算资源中的利用率。通过精心的设计,作者在保持计算量不变的情况下增加了网络的深度和宽度。 结构的决策基于Hebbian原则和多比例处理的直觉。Hebb学习规则是Donald Hebb在1949年提出的一种学习规则,原创 2021-11-20 08:14:10 · 982 阅读 · 0 评论 -
【论文精读】(ResNet)Deep Residual Learning for Image Recognition理论部分
Deep Residual Learning for Image Recognition摘要 对于那些比之前所使用的网络深的多的网络,作者提出了一种残差学习框架来缓和训练这种网络的难度。 作者明确地将这些层重组为关于层输入的残差学习函数,而不是学习新公式的函数。 作者提供了广泛的经验性的证据,证明这些残差网络更容易被优化,并且能够从急剧增加的深度中获得精确度的提升。 作者在ImageNetImageNetImageNet数据集上评估了一个深达152152152层的残差网络——比VGGVGG原创 2021-11-19 08:59:00 · 1072 阅读 · 0 评论 -
【论文阅读】Very Deep Convolutional Networks For Large-Scale Image Recogniton(VGG)
Very Deep Convolutional Networks For Large-Scale Image Recogniton1. 摘要 作者调查了卷积网络深度对其在大规模图像识别的准确率上的影响。 主要贡献是对网络深度增加进行彻底的评估,用一个具有非常小卷积核的网络结构,展示了一个在现有技术配置上的重大提升,可以通过将深度加至16-19层来达到。 这些发现是2014年ImagetNetImagetNetImagetNet挑战的基础,作者的团队分别在定位和分类追踪赢得了第一和第二名。原创 2021-11-17 13:50:24 · 680 阅读 · 0 评论