深度学习
文章平均质量分 94
码个嘚
码个嘚本嘚
展开
-
注意力机制Attention是个啥?
虽然注意力机制很早就提出来了(大概是2014年),直到今天它依然很火,几乎是所有大模型中都会用到的!原创 2024-07-01 16:16:12 · 646 阅读 · 0 评论 -
变形金刚Transformer(2017) -万字长文详解
关注我Transformer是谷歌在2017年的论文《Attention Is All You Need》中提出的,用于NLP的各项任务,在NLP领域中,几乎已经全面取代了RNN;在CV领域也是大放异彩,与CNN分庭抗礼,占据了半壁江山!Transformer中没有用的RNN也没有CNN(但会用到与RNN、CNN相关的先验的知识)。Transformer网络架构能够干所有Seq2Seq (with Attention) 能干的事情,并且效果更好。原创 2024-07-01 16:09:54 · 1058 阅读 · 0 评论