- 博客(3)
- 收藏
- 关注
原创 BERT学习笔记
BERT全称Bidirectional Enoceder Representations from Transformers,即双向的Transformers的Encoder。
2023-12-07 14:53:24
196
1
原创 Transformer学习总结
Transformer是一种基于自注意力机制的序列处理模型,它由编码器和解码器组成,每个部分都包含多个相同的层,每个层都使用自注意力机制和前馈神经网络。
2023-11-28 11:45:59
139
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人