【Vision Transformer】
文章平均质量分 89
Vision Transformer系列知识点整理
MengYa_DreamZ
努力经营当下,直至未来明朗!(欢迎交流xy:半块巧克力哇,回复较快)
展开
-
【科研】浅学Cross-attention?
图像处理相关重点科研记录1.Cross attention概念2.Cross-attention vs Self-attention3.Cross-attention算法4.Cross-Attention 案例-感知器IO原创 2022-09-04 14:33:07 · 98030 阅读 · 16 评论 -
【Attention】深度学习中的注意机制:理解序列模型中的注意机制How Attention works in Deep Learning
【Attention】深度学习中的注意机制:理解序列模型中的注意机制How Attention works in Deep Learning原创 2022-05-16 16:54:29 · 7057 阅读 · 2 评论 -
【Transformer】Transformer如何在深度学习和NLP中学习的:How Transformers work in deep learning and NLP
Transformer如何在深度学习和NLP中学习的:一份直观的介绍:How Transformers work in deep learning and NLPHow did we go from attention to self-attention? 如何从attention到self-attention?Why does the transformer work so damn well? 为什么Transformer工作得这么好?What are the critical component原创 2022-05-16 14:18:28 · 577 阅读 · 0 评论 -
【组件学习】Word Embedding-单词嵌入
【组件学习】Word Embedding-单词嵌入,tensflow,主要是概念理解原创 2022-05-16 10:00:29 · 196 阅读 · 0 评论