AMiner 会议论文推荐第九期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


IJCAI 2020 论文推荐

SVRG for Policy Evaluation with Fewer Gradient Evaluations

随机方差减小梯度(SVRG)是一种优化方法,最初是为了解决具有有限和结构的机器学习问题而设计。SVRG后来被证明可用于政策评估,这是强化学习中的一个问题,其中旨在评估给定政策的价值甘薯。SVRG在两个尺度上使用梯度估计。在较慢的尺度上,SVRG会计算整个数据集的完整梯度,这可能会导致计算成本过高。
在这项工作中,作者展示了用于策略评估的SVRG的两个变体,可以显着减少梯度计算的数量,同时保持线性收敛速度。更重要的是,作者的理论结果意味着,将SVRG应用于线性函数近似的策略评估时,不需要在SVRG的每个epoch都使用整个数据集。作者的实验表明,所提出的方法可节省大量的计算量。

论文链接:https://www.aminer.cn/pub/5d06e491da562926acc53f32?conf=ijcai2020

Alt

Analysis of Q-learning with Adaptation and Momentum Restart for Gradient Descent

现有的Q-learning收敛分析主要集中在普通随机梯度下降(SGD)类型的更新上。尽管自适应矩估计(Adaptive Moment Estimation , Adam)已普遍用于实用的Q-learning算法,但还没有为这类更新类型的Q-learning提供任何收敛保证。
本文首先描述了Q-AMSGrad的收敛速度,该算法是具有AMSGrad更新的Q-learning算法(在理论分析中通常使用Adam的替代方法)。为了进一步提高性能,作者建议将动量重启方案合并到Q-AMSGrad中,形成所谓的Q-AMSGradR算法。同时还确定了Q-AMSGradR的收敛速度。作者在线性二次调节器问题上的实验表明,所提出的两种Q-learning算法在SGD更新下均优于传统的Q学习。在一批Atari 2600游戏中,这两种算法还表现出比DQN学习方法更好的性能。

论文链接:https://www.aminer.cn/pub/5ef96b048806af6ef27720e4?conf=ijcai2020

Alt


NeurIPS 2020 论文推荐

On Adaptive Attacks to Adversarial Example Defenses

自适应攻击已理所应当地成为评估对抗性实例防御的事实标准。
但是,作者发现典型的自适应评估是不完整的。作者证明,尽管尝试使用自适应攻击进行评估,但仍可以绕过最近在ICLR,ICML和NeurIPS上发布的出于说明和教学目的选择的十三种防御。先前的评估论文主要侧重于最终结果(表明防御无效),但这篇文章着重于阐述进行自适应攻击所必需的理论和方法。作者希望这些分析将为如何正确执行针对对抗性实例的适应性攻击提供指导,从而使社区能够在建立更强大的模型方面取得进一步的进展。

论文链接:https://www.aminer.cn/pub/5e4e5ac53a55ac305df4b74f?conf=neurips2020

Alt

Online Learning in Contextual Bandits using Gated Linear Networks

作者介绍了一种新的且完全在线的Contextual Bandit算法,称为门控线性Contextual Bandi(GLCB)。该算法基于门控线性网络(GLN),这是一种最近推出的深度学习体系结构,具有非常适合在线设置的属性。 利用GLN的数据依赖门控属性,作者能够以有效的零算法开销来估计预测的不确定性。
在标准的离散和连续Contextual Bandi问题基准套件上,作者对GLCB与9种利用深层神经网络的最新算法进行了实证评估。尽管GLCB是唯一的在线方法,但它仍获得了中位数第一名,作者通过对其收敛性的理论研究进一步支持了这些结果。

论文链接:https://www.aminer.cn/pub/5e5794b791e0115453751180?conf=neurips2020

Alt

EMNLP 2020 论文推荐

On Extractive, Abstractive Neural Document Summarization with Transformer Language Models.

作者提出了一种通过神经抽象摘要来生成超过数千词的长文档的抽象摘要的方法。在生成摘要之前,作者执行一个简单的提取步骤,然后用这个步骤对变换器语言模型进行相关信息的调节,然后再负责生成摘要。作者表明,该提取步骤显着改善了概述结果,并且与以前采用复制机制的作品相比,这种方法可以产生更多的抽象摘要,同时仍然获得更高的rouge分数。 (本摘要就是由本文介绍的一个模型生成的)

论文链接:https://www.aminer.cn/pub/5f7fe6d80205f07f689732a0?conf=emnlp2020

Alt

How Much Knowledge Can You Pack Into the Parameters of a Language Model?

最近已经观察到,在非结构化文本上训练的神经语言模型可以使用自然语言查询隐式存储和检索知识。在这篇短文中,作者通过微调预先训练的模型来回答问题而无需访问任何外部上下文或知识,以此来衡量这种方法的实用性。
作者表明,该方法具有惊人的模型规模扩展能力,并且优于那些在Natural Questions和WebQuestions开放域变体上显式查询知识的模型。

论文链接:https://www.aminer.cn/pub/5e4faa9f3a55ac969512bc33?conf=emnlp2020

Alt

想要查看更多精彩会议论文合集,请移步AMiner顶会

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值