大语言模型
文章平均质量分 96
格兰芬多_未名
找到自己的目标和方向是一件很幸福的事
展开
-
Transformer图文详解【Attention is all you need】
在理解了自注意力机制的基础上,我们来介绍大语言模型的基础——Transformer结构,Attention is all you need!原创 2024-07-21 20:20:18 · 1133 阅读 · 0 评论 -
深入理解注意力机制【Self-Attention,自注意力模型】
本篇博客将详细介绍注意力机制的基本原理、一般形式以及自注意力模型,并通过具体例子和图示帮助读者更好地理解这些关键概念。让我们一起深入探索,看看注意力机制如何在自然语言处理任务中发挥神奇的作用。原创 2024-07-15 19:41:51 · 1010 阅读 · 0 评论 -
详解注意力机制上篇【RNN,Seq2Seq(Encoder-Decoder,编码器-解码器)等基础知识】
本文介绍注意力机制相关的基础知识,如RNN,编码器-解码器的结构,以及什么是Embedding,为什么需要Embedding。通过实例能更好的帮助理解。原创 2024-07-15 19:33:20 · 894 阅读 · 0 评论