- 博客(1)
- 收藏
- 关注
原创 贴几个Detection Transformer 的顶刊论文吧!
我们注意到,输入inputs embedding后需要给每个word的词向量添加位置编码positional encoding,为什么需要添加位置编码呢? 首先咱们知道,一句话中同一个词,如果词语出现位置不同,意思可能发生翻天覆地的变化,就比如:我欠他100W 和 他欠我100W。这两句话的意思一个地狱一个天堂。可见获取词语出现在句子中的位置信息是一件很重要的事情。
2022-10-04 21:27:39 172 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人