开源代码上新!6 份最新「Paper + Code」 | PaperDaily #17



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第  17 篇文章 [ 自然语言处理 ]

DuReader: a Chinese Machine Reading Comprehension Dataset from Real-world Applications

@zhangjun 推荐

#Machine Reading Comprehension

大型中文阅读理解数据集,工作来自百度。

论文链接

https://www.paperweekly.site/papers/1137

代码链接

https://github.com/baidu/DuReader


TransNets - Learning to Transform for Recommendation

@ccclyu 推荐

#Transfer Learning

引入了迁移学习的隐含表示层来减少 test dataset 的稀疏性。

论文链接

https://www.paperweekly.site/papers/1181

代码链接

https://github.com/rosecatherinek/TransNets


[ 计算机视觉 ]

Co-attending Free-form Regions and Detections with Multi-modal Multiplicative Feature Embedding for Visual Question Answering

@xiaolu 推荐

#Visual Question Answering

视觉问答任务(Viual Question Answering)是最近 2-3 年兴起的多模态任务。对于视觉问答任务,算法需要同时理解图片内容和语言信息,然后推理出正确的答案。目前常见的方法有多模态特征融合和以及视觉注意力机制。

已有的注意力机制主要有两类,一类是基于全图区域的注意力机制,一类是基于检测框区域的注意力机制,前者容易关注到物体的一部分,后者会缺少一些检测框。 

本文第一次尝试将基于全图区域的与基于检测框区域的注意力机制融合在一个框架下,充分利用全图区域和检测框之间的互补信息;并且提出新的多模态特征融合方法,将问题特征、全图特征、检测框特征进行有效的融合。模型在 VQA 和 COCO-QA 两个主流数据集上实现了目前最好的结果。

论文链接

https://www.paperweekly.site/papers/1175

代码链接

https://github.com/lupantech/dual-mfa-vqa


Image Crowd Counting Using Convolutional Neural Network and Markov Random Field

@cornicione 推荐

#People Counting

文章融合了 MRF 和 deep 网络,提出了一种统计静态图片中人数的方法。

论文链接

https://www.paperweekly.site/papers/1195

代码链接

https://github.com/hankong/crowd-counting


[ 机器学习 ]

Social Attention - Modeling Attention in Human Crowds

@zk5580752 推荐

#Attention Model

本文是一篇基于 Social LSTM 的后续论文,Social LSTM 是李飞飞团队于 2016 年提出的行人路径预测方法。本文则在原文基础上改进了预测方式,不仅仅基于 RNN 模型,还引入了 Attention Model,使得预测更加精准和全面。

论文链接

https://www.paperweekly.site/papers/1115

代码链接

https://github.com/vvanirudh/social-lstm-tf


Breaking the Softmax Bottleneck: A High-Rank RNN Language Model

@paperweekly 推荐

#RNN

本文尝试改进了语言模型在预测 next token 时用 softmax 遇到的计算瓶颈。

论文链接

https://www.paperweekly.site/papers/1112

代码链接

https://github.com/zihangdai/mos


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!


 我是彩蛋 

解锁新功能:热门职位推荐!


PaperWeekly小程序升级啦


今日arXiv√猜你喜欢√热门职位


找全职找实习都不是问题

 

 解锁方式 

1. 识别下方二维码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能


 职位发布 

请添加小助手微信(pwbot01)进行咨询

 

长按识别二维码,使用小程序

*点击阅读原文即可注册




关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值