Transformer
文章平均质量分 76
_Summer tree
这个作者很懒,什么都没留下…
展开
-
认识Transformer:入门知识
视频链接:https://www.youtube.com/watch?v=ugWDIIOHtPA&list=PLJV_el3uVTsOK_ZK5L0Iv_EQoL1JefRL4&index=60Seq2SeqRNN不容易被平行化提出用CNN来代替RNN,CNN 可以平行化,但是需要的层数比较深,才能看完所有的输入内容。b1 到b4 是可以同时被算出。可以用来取代RNN。来源: Attention is all you need然后用每一个a 去对每个k 做attention加速的矩阵乘法过程原创 2023-08-14 18:54:29 · 1499 阅读 · 0 评论 -
CLIP score:Text-image similarity 以及image-image similarity 评估代码实现
利用CLIP 计算 Text-to-Image task中 生成的图像与对应的prompt的相似程度,该指标越大越好。对应的输出分数是分别对应了test.jpg和的相似程度。值得注意的是,预训练模型需要提前下载好,并放在项目目录下。(可能需要逐个文件下载)原创 2023-05-31 17:11:27 · 6626 阅读 · 6 评论 -
Encoder-Decoder 模型架构详解
文章目录概述Seq2Seq( Sequence-to-sequence )Encoder-Decoder的缺陷Attention 机制的引入Transformer中的Encoder-Decoder概述Encoder-Decoder 并不是一个具体的模型,而是一个通用的框架。Encoder 和原创 2022-03-02 09:39:01 · 31824 阅读 · 2 评论 -
【TPAMI 2022】A Survey on Vision Transformer
文章目录WHATContents2. Formulation of Transformer2.1 Self-Attention2.2 Other Key Concepts in Transformer3 VISION TRANSFORMER3.1 Backbone for Representation Learning3.1.1 Pure Transformer3.1.2 Transformer with Convolution3.1.3 Self-supervised Representation Lea原创 2022-02-28 12:06:35 · 3700 阅读 · 0 评论 -
Transformer入门笔记
参考链接:https://blog.csdn.net/longxinchen_ml/article/details/86533005文章目录宏观看Transformer编码器解码器张量引入微观看自注意力机制矩阵运算实现自注意力机制相关知识:谷歌退出的BERT 模型去到了NLP任务的SOTA,关键成功因素是TransformerTransformer最早是用于机器翻译任务。Transformer的优点:改进了RNN训练慢的缺点,具体来说,是利用self-attention机制实现快速原创 2022-02-15 21:19:06 · 817 阅读 · 0 评论