RNN基础

本文探讨了RNN在处理长序列数据时的局限性,如短期记忆和遗忘问题。Transformer模型因其更有效地处理长期依赖而逐渐成为首选,尤其是在自然语言处理任务中。Transformer通过自注意力机制避免了RNN的梯度消失和爆炸问题,能够捕捉更远距离的上下文关系。同时,Transformer的并行计算能力使其在训练速度上优于RNN。
摘要由CSDN通过智能技术生成

文本,语言,持续序列的数据,现在RNN基本上可以被transform代替
在这里插入图片描述rNN的记忆比较短,会遗忘很久之前的输入,所以只能记录最近的输入,但是最开始的输入对他也有影响,但是比较低
在这里插入图片描述整个RNN只有一个参数A,不管链条有多长都是只有一个参数A
![在这里插入图片描述](https://img-blog.csdnimg.cn/c4a98966840b4912ab6851c60e1e0739.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5biI5aSq5oGL5LiK6ICB6KGy,size_20,color_FFFFFF,t_70,g_se,x_16
RNN擅长的(优点)
进的

RNN不擅长的(缺点)
远的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值