Transformer
文章平均质量分 76
论文笔记
Activewaste
good good study,day day up
展开
-
(转载)注意力机制中的Q、K和V的意义
看到一篇解释,感觉还不错,后面深入理解了再来重新编辑一波以翻译为例:source:我 是 中国人target: I am Chinese比如翻译目标单词为 I 的时候,Q为I而source中的 “我” “是” “中国人”都是K,那么Q就要与每一个source中的K进行对齐(相似度计算);"I"与"我"的相似度,"I"与"是"的相似度;"I"与"中国人"的相似度;相似度的值进行归一化后会生成对齐概率值(“I"与source中每个单词的相似度(和为1)),也可以注意力值;而V代表每个.转载 2021-06-01 22:12:18 · 6492 阅读 · 1 评论 -
【论文笔记】:Swin transformer(转载)
&Summary作者单位:微软亚洲研究院代码:https://github.com/microsoft/Swin-Transformer论文:https://arxiv.org/abs/2103.1403目标检测刷到58.7 AP(目前第一)!实例分割刷到51.1 Mask AP(目前第一)!语义分割在ADE20K上刷到53.5 mIoU(目前第一)!性能优于DeiT、ViT和EfficientNet等主干网络本文介绍了一种称为Swin Transformer的新型视觉Tran.转载 2021-05-28 15:48:51 · 1543 阅读 · 1 评论