@即将开学的你,请收好这份必读论文清单

640

640?

在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。

在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第 134 篇文章


640?

640?wx_fmt=png

@FindMyPaper 推荐

#Relation Extraction

本文是清华大学刘知远老师组发表于 ACL 2019 的工作,论文描述了当今少有的抽取关系间关系的模型,有助于关系预测、关系分类等任务的发展。具体来说,作者提出根据自然语言句子生成图神经网络(GP-GNNs)的参数,使得 GNN 能够处理非结构化文本输入的关系推理。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图


640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3103


640?

640?wx_fmt=png

@xlf 推荐

#Recommendation Systems

本文来自 Facebook,论文提出了一个深度学习推荐模型 DLRM,该模型基于 PyTorch 和 Caffe2 实现。DLRM 结合了协同过滤和基于预测分析方法的原理,相较于其他模型有所提升,从而使其能够有效地处理生产规模的数据,并得到当前最佳结果。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3114


源码链接

https://github.com/facebookresearch/dlrm


640?

640?wx_fmt=png

@figo 推荐

#Object Detection

本文是比较全面的一篇目标检测综述,几乎涵盖了 20 年来目标检测的各种里程碑,从传统方法到深度学习,值得一看。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3046



640?

640?wx_fmt=png

@erutan 推荐

#Question Answering

本文是南京大学和华为发表于 ACL 2019 的工作,论文关注的是单关系 KBQA 中关系抽取任务,认为没怎么见过的关系做不对是因为这类关系缺乏一个很好的表示。所以本文用了一个 adapter ,去基于预先训练的关系表示,学习没见过的关系应该如何表示。引入对抗目标与重构目标,用重构 simpleQ 做的实验。结论表示在 unseen 部分有显著提升,其它部分也是 comparable 的。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3122


源码链接

https://github.com/wudapeng268/KBQA-Adapter


640?

640?wx_fmt=png

@villawang 推荐

#Generative Adversarial Networks

本文来自柏林城市大学和英特尔。论文引入了一种以神经信号作为监督信息来训练 CNN 的新思想。此外,论文还引入与人类感知相一致的 GAN 的评价指标,并且该指标只需要更小的样本量。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3067



640

640?wx_fmt=png

@QAQ 推荐

#Neural Architecture Search

本文是来自 IBM Research 的 NAS 综述。作者从强化学习与遗传算法、代理与 one-shot 的角度对 NAS 的进展进行了总结,并对约束和多目标架构搜索、自动数据增强、优化器和激活函数搜索等进行了讨论。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图


640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3151


640

640?wx_fmt=png

@xy118 推荐

#Cloze Test

本文来自清华大学和南洋理工。完形填空测试,由于其简单的形式,常被用来考察机器阅读理解能力,中文方面已经有了人民日报(PD)、儿童寓言故事(CFT)、CMRC2017 等数据集。

而这篇论文中,作者以完形填空的形式对中文里特有的语言现象——成语进行了测试和研究。成语在日常交流及各种文献中经常被使用,机器如何更好地对成语进行理解和表征这一问题的重要性不言而喻。与其他词语相比,成语的语义具有以下两个特点:非合成性、隐喻。此外,近义词的存在也会对机器在特定语境下选出正确选项造成干扰。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3132


数据集链接

https://github.com/zhengcj1/ChID-Dataset

640

640?wx_fmt=png

@sheqi0399 推荐

#Generative Adversarial Networks

本文是一篇来自柏林城市大学和英特尔的综述文章,作者对最近几年的 GAN 研究进行了梳理,以 loss 和网络结构进行分类,并对一些经典的 GAN 结构和变种进行了对比。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3064


640

640?wx_fmt=png

@superhy 推荐

#Convolutional Neural Network

本文提出了一种新的“内成像”机制来模拟卷积通道的分组关系。该方法可以提高卷积网络的效率,增强信道间的协作。内成像机构的设计是非常独特的,它就像把透镜放入卷积网络。卷积滤波器是一种建模局部区域特征关系的利器,“内成像”这种设计让我们能够利用卷积滤波器来建模卷积通道间的成组关系,比 SE 模型更明显地提升卷积网络的建模效率。所提出的内成像机制可以应用于各种 CNN 体系结构。它重量轻、可扩展、适应性强,具有良好的应用前景。模型设计轻便简洁,可以有效激发更小规模的卷积网络接近甚至超越更大规模网络结构的效果。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图


640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3085


640?

640?wx_fmt=png

@erutan 推荐

#Question Answering

一堆 big name 的公司搞的一个 QA 数据集,100k 级别,回答是比较长的生成式的文字,从 Reddit ELI5 中获得,即回答使用语言是 5 岁小朋友可以看懂的那种。问题以 how、why 为主,what 开头的复合问题也有一些。评价指标以 ROUGE 等为主。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3124


源码链接

https://github.com/facebookresearch/ELI5

640?

640?wx_fmt=png

@jimy 推荐

#Recommender Systems

本文是麦考瑞大学和悉尼科技大学发表于 IJCAI 2019 的综述文章,论文对当前深受大家关注的序列推荐系统做了一个系统的总结和回顾。该文章系统阐述了为什么需要序列推荐系统,它与传统的推荐系统如协同过滤有什么差别,以及什么是序列推荐系统。

作者从数据特征的角度出发,系统阐述了序列推荐系统中面临的主要问题和挑战以及目前的相应解决方案,系统地总结了整个序列推荐系统的技术发展脉络。该文章深入浅出,浅显易懂,避免了高深的数学公式和复杂的逻辑推导与定义,很容易读懂,但同时包含了该领域最新的发展动态。特别适合于想进入这个领域的初学者阅读。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3079

640

640?wx_fmt=png

@Layumi 推荐

#Person Re-identification

本文是英伟达、悉尼科技大学和澳大利亚国立大学发表于 CVPR 2019 的工作。行人重识别的难点在于不同摄像头下人的类内变化(包括摄像头的视角/光照/人的姿态等)。本文没有使用任何部件匹配的损失,而是仅仅让模型去“看”更多的训练图像来提升行人重识别的效果。而这些训练图像都是由 GAN 生成的。

相比于 ICCV 2017 时第一篇使用 GAN 来生成行人图像的文章,本文不仅在生成图像质量上有了大的提升,同时也将行人重识别的模型与生成模型做了有机的结合。从行人重识别模型提取好的行人特征可以作为 GAN 的 input,而 GAN 生成图像可以用来finetune行人重识别模型。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/2999


论文链接

https://github.com/NVlabs/DG-Net


640

640?wx_fmt=png

@tobiaslee 推荐

#Text Style Transfer

本文是北大万小军老师组的文章,关注的是文本的风格迁移任务。文章通过 autoencoder 编码输入,在得到的 latent representation 上做扰动,直到分类器对其进行分类的结果为目标风格,再利用改变后的 latent vector 解码得到目标风格的文本。这方法和之前 Goodfellow 的 adversarial example 非常类似,通过对 loss function 计算梯度来更新输入从而改变分类器的分类结果,这里巧妙地和文本风格迁移相结合,能够达到控制迁移的层次(aspect)以及强度(degree)。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3062


源码链接

https://github.com/nrgeup/controllable-text-attribute-transfer

640

640?wx_fmt=png

@zhangjichao 推荐

#Image-to-image Translation

本文提出了一种新颖的方式去解决人眼注意力矫正的问题,在经典的 GAN-based 修复方法上提出了一种自我引导的预训练模型来引导修复,进而保持修复的身份特征。本文为了稳定网络的训练和提高修复的质量,提出了一种自监督学习。这种新颖简单的自监督学习很容易扩展到其他图像翻译、图像修复领域中。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图


640?wx_fmt=png


论文链接

https://www.paperweekly.site/papers/3058


论文链接

https://github.com/zhangqianhui/GazeCorrection

640

640?wx_fmt=png

@xwzhong 推荐

#Text Classification

本文来自复旦大学。针对 BERT 在文本分类中的应用,作者尝试了不同的微调方式来评测 BERT 的效果,主要分三大类:Fine-Tuning Strategies、Further Pretraining 和 Multi-task Fine-Tuning。

这是一篇实验性的文章,把 BERT 尽可能的微调方式都列举了,总的来讲效果比较好的方式是:

  • 长文本仍需要进行实验才能确定是用 head、tail 还是 head+tail,这个跟具体的任务特点相关;

  • 从准确率来看,一般选择最后一层 [CLS] 的输出,但如果要考虑线上的时间效率问题,则可以使用中间层输出,个人在其他任务中也发现,随着 [CLS] 层数的增加,准确率确实不断往上增,但时间复杂度也如此;

  • 如果具体任务内的无标注数足够多,则用其再预训练,如果不多,则可利用领域内的数据,同时输出中间结果,并进行具体任务的微调测试。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

 论文模型:点击查看大图

640?wx_fmt=png

论文链接

https://www.paperweekly.site/papers/3043

640?#推 荐 有 礼#


本期所有入选论文的推荐人

均将获得PaperWeekly纪念周边一份

640?

640

640


▲ 深度学习主题行李牌/卡套 + 防水贴纸

 礼物领取方式 


推荐人请根据论文详情页底部留言

添加小助手领取礼物

*每位用户仅限领取一次


想要赢取以上周边好礼?

点击阅读原文即刻推荐论文吧!

640?

点击以下标题查看往期推荐: 


640?#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通



?


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

640?

▽ 点击 | 阅读原文 | 获取更多论文推荐

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值