transfomer
文章平均质量分 93
Life1213
这个作者很懒,什么都没留下…
展开
-
Transformer学习记录(5):Batch Normalization与Layer Normalization
都是用于标准化数据的,Batch Normalization是用于图像预处理的,而Layer Normalization最初是用于自然语音的,但随着Transformer在图像的使用,Layer Normalization也用于图像中。我们在图像预处理过程中通常会对图像,这样能够加速网络的收敛。原创 2024-09-19 17:22:53 · 874 阅读 · 0 评论 -
GCN-assisted attention-guided UNet for automated retinal OCT segmentation | 论文阅读记录
在治疗neovascular age-related macular degeneration (nAMD)时,对视网膜的SD-OCT图像进行分割很重要。原因:经过下采样会导致空间信息的损失,而该模型需要使用空间推理能力来分割图像,因此需要补充这些信息。表示模型能够较好地识别出所有真实的负类样本,避免将健康的样本误诊为正类,在图像分割邻域,空间推理用于理解图像中像素或区域的。为了提高自动分割的性能,解决UNet的学习过程会。的深度学习模型,常用于非欧几里得空间的数据。例如,在医学图像中,某些病灶区域的。原创 2024-09-19 17:21:52 · 945 阅读 · 0 评论 -
Transformer学习记录(6):Vision Transformer
Transformer模型最初是使用在NLP中,但近几年Transformer模型在图像上的使用越来越频繁,最新的模型也出现了很多基于Transfomer的,而其中,它是用于图像分类的,这里就以这个模型来学习Transformer模型是如何在图像领域使用的。原创 2024-09-14 17:46:11 · 1208 阅读 · 0 评论 -
Transformer学习(4):位置编码 Positional Encoding
在自注意力编码中,所有a的计算都并行同时执行得到对应的b,可以并行就代表着a之间是,这存在问题。在不使用位置编码时,将a2与a3的顺序打乱,不会影响a1输出的数据。原创 2024-09-13 11:53:22 · 746 阅读 · 0 评论 -
Transformer学习(3):多头自注意力机制Multi-Head Self-Attention
回顾自注意力机制多头自注意力机制多头自注意力机制可以理解为由多个自注意力模块,也就是自注意力头(head)组成。每个head都有自己的QKV矩阵来进行自注意力计算。计算过程① 得到各个head所需的QKV:计算过程中会将原本的qi,ki,viq_i,k_i,v_iqi,ki,vi分为多份,分配到对应的head中,一般会均分QKV的向量,这样每个head有了所需的QKV数据,以此每个head都可以使用自注意力机制。下图是有2个head的情况,可以看到将q,k,vq,k,vq,k,v都原创 2024-09-13 10:50:19 · 617 阅读 · 0 评论 -
Transformer学习(2):自注意力机制
自注意力机制是规定了数据自身来作为查询对象与被查询对象。原创 2024-09-12 17:20:43 · 735 阅读 · 0 评论 -
Transformer学习(1):注意力机制
在一张图像中,包含了各种信息,而我们会自动关注重要的信息。下图是注意力热力图,可以发现人们会注意兔子的脸这些重要信息。而在深度学习中,输入数据包含了重要的数据与不重要的数据,但对于一个模型来说,它不知道哪些数据是重要的。因此提出了注意力机制,如何在深度学习模型上使用注意力,让模型关注于重要的数据。原创 2024-09-12 11:21:17 · 598 阅读 · 0 评论