一览六月最热的5篇AI技术论文

640?wx_fmt=jpeg


作者 | 神经小姐姐

转载自HyperAI超神经(ID: HyperAI)


导语:始建于 1991 年的 arXiv.org 至今已收录超过 100 万篇论文预印本,近年来,其每月提交量已经超过 1 万篇。这里成为一个巨大的学习宝库。本文罗列了 arXiv.org 上最近一个月人工智能方向的最热论文,供大家学习参考。


作为一个研究人员专用「占坑」系统,arXiv.ordg 收录了物理、数学、计算机科学等各个领域的大量研究论文,来自世界各地的研究人员都为 arXiv 做出贡献。


自 2016 年以来,其每月提交量已经超过 1 万篇。巨量的论文组成了一个真正的学习方法宝库,你可以用它来解决数据科学问题。但这繁多的资源也增加了筛选的难度。


640?wx_fmt=png


为此,我们将 arXiv.org 上的一些最新的研究论文筛选了出来,这些论文都是关于人工智能,机器学习和深度学习领域中非常吸引人的科目,包括统计学,数学和计算机科学等,然后我们整理出了六月最热论文列表。


我们希望通过挑选能作为数据科学家典型代表的文章来帮大家节省一些时间。下面列出的文章代表 arXiv 上出现的所有文章中的一小部分。排名不分先后,每个论文附有链接以及简要概述。


由于这些都是学术研究论文,通常面向研究生,博士后和经验丰富的专业人士。其中通常包含高等数学,因此大家要做好准备。接下来,就请享用吧!


《Monte Carlo Gradient Estimation in Machine Learning》 机器学习中的 Monte Carlo 梯度估计


论文链接:https://arxiv.org/pdf/1906.10652.pdf

推荐等级:★★★★★


本文是对我们在机器学习和统计科学中,蒙特卡罗梯度估计所使用的方法的广泛和可访问的调查:计算函数期望的梯度与定义分布的参数问题的整合,以及敏感性分析的问题。


在机器学习研究中,这种梯度问题是许多学习问题的核心(包括监督,无监督和强化学习)谷歌研究人员通常寻求以一种允许蒙特卡罗估计的形式重写这种梯度,使它们能够方便、有效地被使用和分析。


640?wx_fmt=jpeg

随机优化回路包括仿真阶段和优化阶段




《An Introduction to Variational Autoencoders》

变分自编码器简介


论文链接:https://arxiv.org/pdf/1906.02691v1.pdf

推荐等级:★★★★★


变分自编码器为学习深层潜在变量模型和相应的推理模型提供了原理框架。本文介绍了变分自编码器和一些重要的扩展。


640?wx_fmt=jpeg

VAE学习观测到的x空间之间的随机映射



《Generative Adversarial Networks: A Survey and Taxonomy》

生成性对抗网络:调查与分类


论文链接:https://arxiv.org/pdf/1906.01529v1.pdf

推荐等级:★★★★★


在过去的几年中,有大量关于生成对抗网络(GAN)的研究。这其中最具革命性的技术,出现在计算机视觉领域,比如图像生成,图像到图像的转换,面部特征变化等领域。


尽管 GAN 的研究取得了一些突破,但在用于实际问题时会面临 3 个主要挑战:(1)高质量图像生成; (2)多样化的图像生成; (3)稳定性训练。


作者提出了一种方式,用于对大多数流行的 GAN 进行分类,分别是架构变体(architecture-variants)和损失变体(loss-variants),然后从这两个角度来处理三个挑战。


在本文中,回顾和探讨了 7 个架构变体 GANs 和 9 个损失变体 GANs,论文的目的,在于提供对当前 GAN 性能提升研究的深刻分析。


640?wx_fmt=jpeg

GAN 的架构。在学习过程中同步训练两个深度神经网络识别器D和发生器G



《Learning Causal State Representations of Partially Observable Environments》

学习部分可观测环境的因果状态表示


论文链接:https://arxiv.org/pdf/1906.10437.pdf

推荐等级:★★★★


智能 agent 可以用过学习与状态无关的抽象,来应对情况复杂多变的环境。在这篇文章中,提出了近似因果状态的机制,在可观察的马尔可夫决策过程中,最优地推动行动和观察的联合。所提出的算法从 RNN 中提取因果状态表示,该 RNN 被训练以预测历史的后续观察。作者证明,通过对不可知的状态抽象的学习,可有效地学习强化学习问题的策略规划。


640?wx_fmt=jpeg

功能神经过程(FNP)模型




《The Functional Neural Process》

函数神经过程



论文链接:https://arxiv.org/pdf/1906.08324.pdf

推荐等级:★★★★


本文提出了一个可交换的随机过程,称为函数神经过程(FNPs)。FNP 模型在给定的数据集上训练,通过潜在表示上的依赖关系图,来进行函数的模拟分布。


在这样做时,通常的方式只定义了贝叶斯模型,而忽略了在全局参数上设置先验分布; 为了对此进行改进本文对数据集的关系结构给出先验,将这个任务进行简单化。


作者展示了如何从数据中学习这些模型,通过小批量优化测试,证明它们可以扩展到大型数据集,并描述了如何通过后验预测分布对新点进行预测。


为了验证 FNPs 的性能,在 toy regression 和图像分类上做了测试,结果证明,和基准线的那些参数相比,FNPs 能够提供更好的竞争预测,以及更稳健的不确定性估计。


640?wx_fmt=jpeg

生成节点的图形模型测试结果随机过程


(*本文为 AI科技大本营转载文章,转载请联系原作者)


精彩推荐



“只讲技术,拒绝空谈”2019 AI开发者大会将于9月6日-7日在北京举行,这一届AI开发者大会有哪些亮点?一线公司的大牛们都在关注什么?AI行业的风向是什么?2019 AI开发者大会,倾听大牛分享,聚焦技术实践,和万千开发者共成长。目前,大会早鸟票抢购中~扫码购票,领先一步!


640?wx_fmt=png


推荐阅读

640?wx_fmt=png 你点的每个“在看”,我都认真当成了喜欢
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值