RNN
文章平均质量分 96
Mr.小梅
这个作者很懒,什么都没留下…
展开
-
图解Attention
以德语翻译成英语为例,图解Attention的整体计算过程,包括详细的GPU图解,attention图解,Encoder和Decoder图解。原创 2023-01-29 17:00:24 · 666 阅读 · 0 评论 -
从RNN到Attention到Transformer系列-Transformer介绍及代码实现
深度学习知识点总结专栏链接:深度学习知识点总结_Mr.小梅的博客-CSDN博客本专栏主要总结深度学习中的知识点,从各大数据集比赛开始,介绍历年冠军算法;同时总结深度学习中重要的知识点,包括损失函数、优化器、各种经典算法、各种算法的优化策略Bag of Freebies (BoF)等。本章介绍从RNN到Attention到Transformer系列-Transformer介绍及代码实现。3.5Transformer介绍参考论文《Attention is All You Need》。..原创 2022-05-19 10:06:24 · 1158 阅读 · 0 评论 -
从RNN到Attention到Transformer系列-RNN介绍、手动计算验证
深度学习知识点总结专栏链接:深度学习知识点总结_Mr.小梅的博客-CSDN博客本专栏主要总结深度学习中的知识点,从各大数据集比赛开始,介绍历年冠军算法;同时总结深度学习中重要的知识点,包括损失函数、优化器、各种经典算法、各种算法的优化策略Bag of Freebies (BoF)等。本章介绍RNN系列-RNN目录3.1 RNN3.1.1 RNN介绍3.1.2 PyTorch中RNN的计算3.1.3RNN手动计算验证3.1.4RNN存在的问题3.1 RNN3..原创 2022-05-11 17:13:06 · 792 阅读 · 0 评论