最新论文阅读(1)


#One Model To Learn Them All

 - 2017年6月	
 - 多模态多任务模型,目的是希望在一个模型中完成不同的任务,该论文重点介绍不同模块的整合。
 - google

MultiModel 由几个模式网络、一个编码器、I/O 混合器、一个自回归解码器构成,它的主体由多个卷积层、注意力机制、和稀疏门控专家混合层组成。
  上面提到的每个计算模块,都会在某些类任务中发挥着关键作用,在那些发挥不了关键作用的任务中,这些模块也不会干扰,反而能在大多数的情况下还能发挥一些作用。
普通的 multi-task learning 一般都是在用一个领域内,而本文将各个组件说成是单模型的building block,不当成单独的模型。"


#A Brief Survey of Deep Reinforcement Learning
- 2017年8月
- 强化学习的概论
-
  作者首先介绍了跟强化学习有关的一些领域,然后对现在比较主流的两种方法——基于价值和基于策略的方法进行了深入探讨。
  这篇文章涉及了深度强化学习的核心算法,包括deep Q-network,信赖域策略优化,和异步式actor-critic方法。同时,作者强调了深度神经网络的独特优势——通过强化学习进行视觉理解。


#Twin Networks: Using the Future as a Regularizer
-
- RNN
- 蒙特利尔工学院;微软
  在本文中,作者介绍了一种简单的使用RNNs规划未来的方法。为了达到这个目标,他们引入另外一个训练过的神经网络,并且与原神经网络顺序相反。
  双子网的核心思想是使得向前和向后的RNNs在预测同样的状态时达到拟合。在每一步的预测中,正向神经网络预测的状态需要匹配后向神经网络之中包含的未来信息。"


#Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm
-
- 用表情数据学习情绪
-

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值