![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP学习
文章平均质量分 95
Softtt_
这个作者很懒,什么都没留下…
展开
-
BERT学习笔记
BERT全称Bidirectional Enoceder Representations from Transformers,即双向的Transformers的Encoder。原创 2023-12-07 14:53:24 · 196 阅读 · 1 评论 -
Transformer学习总结
Transformer是一种基于自注意力机制的序列处理模型,它由编码器和解码器组成,每个部分都包含多个相同的层,每个层都使用自注意力机制和前馈神经网络。原创 2023-11-28 11:45:59 · 139 阅读 · 0 评论 -
Seq2Seq+Attention学习总结
Seq2Seq的基本简介和结构,Attention相关原创 2023-11-22 22:21:47 · 132 阅读 · 0 评论