- 博客(3)
- 收藏
- 关注
原创 自注意力机制
https://zhuanlan.zhihu.com/p/631398525https://easyai.tech/en/ai-definition/attention/
2023-11-07 21:58:29
104
转载 深度学习中的编码器-解码器和Seq2Seq
Seq2Seq并不特指具体的方法,这个名词强调的是目的,以”输入序列,输出序列“为目的的,可以统称为Seq2Seq模型。Seq2Seq使用的具体方法基本上都在Encoder-Decoder框架的范围内。
2023-10-07 21:00:49
488
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅