自然语言处理
文章平均质量分 94
NLP 论文阅读,理解
菜鸡不叫
研究生阶段学习人工智能,写一些自己的理解,希望可以帮助到大家
展开
-
【Transformer】注意力机制+Transformer详解(模型,训练和预测)
本文对Transoformer模型进行了深度解读,包括整体架构,Multi-head Attention的本质,FFN,Positional Embedding以及Layer Normalization等原创 2023-11-30 23:18:10 · 2231 阅读 · 0 评论 -
【Word2vec】帮你理解Word2vec
在自然语言处理任务中,首先要将词语表示成向量的形式,这样计算机才能读懂文本。词向量在自然语言处理中有着重要的角色,它将抽象的词语之间的语义关系量化成向量形式。有了良好的词向量,我们可以使用机器学习、深度学习的模型完成更多的工作。原创 2023-10-19 15:37:36 · 246 阅读 · 0 评论