Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制) 阅读笔记

本文介绍了深度学习和NLP中的注意机制,指出其在解决长序列信息处理时的问题,如神经机器翻译中的信息丢失。注意机制允许模型在生成输出时关注输入的不同部分,模拟人类的视觉注意。同时,注意机制的计算开销大,更像记忆遍历。文章还探讨了注意机制在图像描述、句法分析和阅读理解等任务的应用,并提出了记忆网络作为可能的发展方向。
摘要由CSDN通过智能技术生成

    Attention and Memory in Deep Learning and NLP(深度学习和NLP中的注意和记忆机制) 阅读笔记

    1. 引言

      1. 什么是Attention Mechanisms(注意机制)

      2. 神经网络中的注意机制类似人类的视觉注意机制,人类视觉本质上看图片会聚焦在“高清晰度“的区域,同时也会感知周围“低清晰度”的区域,然后不断调整焦点

      3. 目前,注意机制和RNN结合大放异彩

    2. 注意机制可以解决什么问题?

      1. 以NTM(Neural Machine Translation)为例,主要的工作是把源语言句子通过RNN编码成一个向量,然后再通过RNN解码成其他语言的句子

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值