Transformer
文章平均质量分 95
lichunericli
自强不息,厚德载物,宁静致远;有希望的地方,地狱也是天堂。
展开
-
深入浅出 BERT
深入浅出 BERT原创 2024-05-04 04:24:11 · 989 阅读 · 0 评论 -
Mamba和状态空间模型(SSM)的视觉指南:替代 Transformers 的语言建模方法
Mamba和状态空间模型(SSM)的视觉指南:替代 Transformers 的语言建模方法原创 2024-03-31 15:44:53 · 1294 阅读 · 0 评论 -
拆解 Transformer 的训练过程
拆解 Transformer 的训练过程原创 2024-03-08 11:25:34 · 1221 阅读 · 0 评论 -
编码实现LLM中的自注意力,多头注意力、交叉注意力和因果注意力
编码实现LLM中的自注意力,多头注意力、交叉注意力和因果注意力原创 2024-02-14 01:09:04 · 986 阅读 · 0 评论 -
Attention 和 Self-Attention 总结
Attention 和 Self-Attention 总结原创 2024-03-08 11:19:04 · 1023 阅读 · 0 评论 -
Transformer神经网络架构的整体指南
Transformer神经网络架构的整体指南原创 2024-01-07 01:13:18 · 1118 阅读 · 0 评论 -
什么是 Transformer 模型以及它们如何工作?
什么是 Transformer 模型以及它们如何工作?原创 2024-01-02 11:12:39 · 975 阅读 · 0 评论