NLP论文
文章平均质量分 91
W&J
读好代码,写好代码。新人小白一枚
展开
-
Attention is all you need (一)
本篇是读Transformer模型的论文《attention is all you need》的第一个部分,读摘要、结论,浅看模型结构图和实验对比表原创 2022-09-08 15:13:36 · 214 阅读 · 0 评论 -
Attention is all you need(二)
本篇是读Transformer模型的论文《attention is all you need》的第二篇,细度Introduction, Background, Model Achitecture, Why Self-Attention, Training, 和Result原创 2021-08-09 15:39:55 · 163 阅读 · 0 评论