AMiner 会议论文推荐第四期

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。


IJCAI 2020 论文推荐

Coloring graph neural networks for node disambiguation

在本文中,作者证明了一种简单的着色方案可以在理论上和经验上提高消息传递神经网络(MPNN)的表达能力。更具体地说,作者引入了一种称为有色局部迭代过程(CLIP)的图神经网络,该网络使用颜色消除了相同节点属性的歧义,并表明这种表示形式是具有节点属性的图上连续函数的通用逼近器。作者的方法依赖于可分离性,这是一个允许将优选的神经网络扩展为通用表示形式的关键拓扑特征。
最后,作者通过实验证明CLIP能够捕获传统MPNN无法区分的结构特征,同时又是基准图分类数据集上的最新技术。

论文链接:https://www.aminer.cn/pub/5df371de3a55acfd20674ba8?conf=ijcai2020

Alt

NeurIPS 2020 论文推荐

MOPO: Model-based Offline Policy Optimization

离线强化学习(Offline reinforcement learning, RL)指的是完全从一批先前收集的数据中学习策略的问题。尽管无模型离线RL取得了显著进展,但最成功的现有方法将策略限制在数据支持范围内,无法推广到新状态。
在本文中,作者观察到,与无模型方法相比,现有的基于模型的RL算法本身已经在离线设置中产生了显著的优势,尽管它并不是为这种设置而设计的。然而,尽管许多基于标准模型的RL方法已经估计了模型的不确定性,但它们本身并没有提供避免与离线环境中的分布偏移相关的问题的机制。因此,作者建议修改现有的基于模型的RL方法,以通过将基于模型的脱机RL转换为受惩罚的MDP框架来解决这些问题。
作者从理论上表明,通过使用这种惩罚性MDP,可以使真实MDP中的收益下限最大化。基于上述理论结果,作者提出了一种新的基于模型的离线RL算法,该算法将Lipschitz正则化模型的方差作为对奖励函数的惩罚。实验表明,该算法的性能优于现有的离线RL基准测试中基于标准模型的RL方法和现有的最新无模型离线RL方法,以及两项具有挑战性的需要概括从不同任务收集的数据连续控制任务。

论文链接:https://www.aminer.cn/pub/5ecf8d2391e01149f850f4dd?conf=neurips2020

Alt


EMNLP 2020 论文推荐

Dynamic Data Selection and Weighting for Iterative Back-Translation

事实证明,反向翻译(Back-translation)是在神经机器翻译(NMT)中利用单语数据的有效方法,并且反复进行反向翻译可以进一步提高模型性能。选择要反向翻译的单语数据至关重要,因为生成的合成数据需要高质量并且反映目标域。为了实现这两个目标,已经提出了数据选择和加权策略,通常的做法是选择接近目标域但又不同于普通通用域文本的样本。
在本文中,作者提出了对这种常用方法的见解,并将其概括为一种动态课程学习策略,该策略应用于迭代反向翻译模型。另外,作者基于句子的当前质量及其对先前迭代的改进,提出了加权策略。作者在有关领域适应,低资源和高资源MT设置以及两种语言对的模型上进行评估。实验结果表明,所提方法比竞争基准最多可提高1.8 BLEU点。

论文链接:https://www.aminer.cn/pub/5e8ef2ae91e011679da0f075?conf=emnlp2020

Alt


想要查看更多精彩会议论文合集,请移步AMiner顶会