[NLP]Attention机制与self-Attention机制
作者:张俊林链接:https://www.zhihu.com/question/68482809/answer/264632289来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关...
转载
2019-01-15 23:50:12 ·
21389 阅读 ·
3 评论