计算机视觉
文章平均质量分 96
C1utch
杭州电专本科,未来就读西电杭研院硕士,研究方向计算成像。
展开
-
阅读论文《Vision Transformer with Super Token Sampling》
这篇论文是CVPR2023的一篇论文,主要工作是对于Vision Transformer的自注意力机制进行了魔改。我感觉这篇文章或许对我的工作有帮助,因此,今天精读一下。(侵权删)(非常欢迎来argue,指正我的错误)原创 2023-06-06 15:28:56 · 2833 阅读 · 0 评论 -
Transformer is all you need(doge)
仅为个人学习笔记,综合了很多笔记和论文,侵权删,仅供学习参考!!!发现错误非常欢迎来argue。以上为我个人综合各种各样的笔记,我希望能够帮助大家理解,如果有错误,非常非常欢迎大家来argue我。我认为基于transformer框架的模型,可以排列组合各种机制来试出最好的搭配,现在的encoder-decoder和attention已经有非常多的创新和架构了,大部分也都是开源的,我打算照这个思路去实现我的问题。原创 2023-04-04 16:57:35 · 376 阅读 · 0 评论