机器学习
文章平均质量分 87
Life1213
这个作者很懒,什么都没留下…
展开
-
Deep Learning for Unsupervised Anomaly Localization in Industrial Images: A Survey | 论文阅读记录
AL也称为异常分割,用于生成像素级异常定位结果,它不仅仅关注图像类别,更关注异常的详细位置。RAMFAE:一种基于自编码器的新型无监督视觉异常检测方法。OmniAL:用于无监督异常定位的统一 CNN 框架。原创 2024-06-16 23:05:36 · 346 阅读 · 0 评论 -
Towards Total Recall in Industrial Anomaly Detection | 论文阅读记录
其中。原创 2024-06-10 10:49:54 · 1330 阅读 · 2 评论 -
Transformer学习记录(5):Batch Normalization与Layer Normalization
都是用于标准化数据的,Batch Normalization是用于图像预处理的,而Layer Normalization最初是用于自然语音的,但随着Transformer在图像的使用,Layer Normalization也用于图像中。我们在图像预处理过程中通常会对图像,这样能够加速网络的收敛。原创 2024-09-19 17:22:53 · 856 阅读 · 0 评论 -
GCN-assisted attention-guided UNet for automated retinal OCT segmentation | 论文阅读记录
在治疗neovascular age-related macular degeneration (nAMD)时,对视网膜的SD-OCT图像进行分割很重要。原因:经过下采样会导致空间信息的损失,而该模型需要使用空间推理能力来分割图像,因此需要补充这些信息。表示模型能够较好地识别出所有真实的负类样本,避免将健康的样本误诊为正类,在图像分割邻域,空间推理用于理解图像中像素或区域的。为了提高自动分割的性能,解决UNet的学习过程会。的深度学习模型,常用于非欧几里得空间的数据。例如,在医学图像中,某些病灶区域的。原创 2024-09-19 17:21:52 · 925 阅读 · 0 评论 -
Transformer学习记录(6):Vision Transformer
Transformer模型最初是使用在NLP中,但近几年Transformer模型在图像上的使用越来越频繁,最新的模型也出现了很多基于Transfomer的,而其中,它是用于图像分类的,这里就以这个模型来学习Transformer模型是如何在图像领域使用的。原创 2024-09-14 17:46:11 · 1190 阅读 · 0 评论 -
Transformer学习(4):位置编码 Positional Encoding
在自注意力编码中,所有a的计算都并行同时执行得到对应的b,可以并行就代表着a之间是,这存在问题。在不使用位置编码时,将a2与a3的顺序打乱,不会影响a1输出的数据。原创 2024-09-13 11:53:22 · 735 阅读 · 0 评论 -
Transformer学习(3):多头自注意力机制Multi-Head Self-Attention
回顾自注意力机制多头自注意力机制多头自注意力机制可以理解为由多个自注意力模块,也就是自注意力头(head)组成。每个head都有自己的QKV矩阵来进行自注意力计算。计算过程① 得到各个head所需的QKV:计算过程中会将原本的qi,ki,viq_i,k_i,v_iqi,ki,vi分为多份,分配到对应的head中,一般会均分QKV的向量,这样每个head有了所需的QKV数据,以此每个head都可以使用自注意力机制。下图是有2个head的情况,可以看到将q,k,vq,k,vq,k,v都原创 2024-09-13 10:50:19 · 597 阅读 · 0 评论 -
Transformer学习(2):自注意力机制
自注意力机制是规定了数据自身来作为查询对象与被查询对象。原创 2024-09-12 17:20:43 · 722 阅读 · 0 评论 -
Transformer学习(1):注意力机制
在一张图像中,包含了各种信息,而我们会自动关注重要的信息。下图是注意力热力图,可以发现人们会注意兔子的脸这些重要信息。而在深度学习中,输入数据包含了重要的数据与不重要的数据,但对于一个模型来说,它不知道哪些数据是重要的。因此提出了注意力机制,如何在深度学习模型上使用注意力,让模型关注于重要的数据。原创 2024-09-12 11:21:17 · 587 阅读 · 0 评论 -
libtorch学习历程(二):张量
libtorch(pytorch c++)的大多数api和pytorch保持一致。使用之前要导入torch。原创 2024-08-24 21:28:44 · 832 阅读 · 0 评论 -
libtorch学习历程(三):模块与网络的编写与使用
中的实现。而且。原创 2024-08-24 21:28:13 · 266 阅读 · 0 评论 -
libtorch学习历程(四):数据加载模块
要自定义数据加载模块,需要继承torch::data::Dataset这个基类实现派生类。与pytorch中需要实现初始化函数init获取函数getitem以及数据集大小函数len类似的是,在libtorch中同样需要处理好初始化函数get()函数和size()函数。需要继承torch::data::Dataset,定义私有变量image_paths和labels分别存储图片路径和类别,是两个vector变量。在构造函数中,调用图像遍历函数来获得所有图像的地址与类别;并且需要。原创 2024-08-24 21:27:59 · 664 阅读 · 0 评论 -
ResNet网络学习
对于一个网络,如果简单地增加深度,就会导致梯度消失 或 梯度爆炸,我们采取的解决方法是 正则化。随着网络层数进一步增加,又会出现模型退化问题,在训练集上的 准确率出现饱和甚至下降 的现象;因此提出了通过利用内部的残差块。原创 2024-08-24 21:26:06 · 372 阅读 · 0 评论 -
U-Net学习
U-Net的提出是为了解决医疗图像中的问题。原创 2024-07-28 15:33:52 · 277 阅读 · 0 评论 -
FCN 全卷积网络
最后进行转置卷积,进行32倍的上采样来恢复原图的高宽,深度为类别个数。这里使用了双线性插值的方法来初始化转置卷积的参数。而在论文中,作者冻结了转置卷积的参数,因此实际上就是一个简单的双线性插值,可以直接使用双线性插值。原因是两种方法的性能差不多,但可以加速训练过程。最终每个像素都有num_cls个数值,对它们进行softmax操作就可以知道该像素最有可能属于哪个类别。在FCN-32S中,VGG16、FC6与FC7使用的权重就是VGG中的权重。将前面得到的两个h16×w16×16h。原创 2024-07-27 17:26:39 · 890 阅读 · 0 评论 -
转置卷积 transposed convolution
通过上面分析,就可以知道为什么通过对输入特征图进行填充使用转置的卷积核并且使用转置卷积核与输入特征图进行步长=1的普通卷积操作就可以得到结果。原创 2024-07-26 20:14:05 · 951 阅读 · 0 评论 -
语义分割介绍
语义指具有人们可用语言探讨的意义,分割指图像分割。语义分割(semantic segmentation)能够将,使每个部分,让计算机可以理解图像。语义分割是,将整张图不留缝隙地分割成每个区域,。原创 2024-07-26 15:57:18 · 865 阅读 · 0 评论 -
卷积神经网络CNN
简单来说,就是包含了卷积层的神经网络。原创 2024-07-24 21:26:57 · 745 阅读 · 0 评论 -
学生-教师模型 与 知识蒸馏
指一个较小且较简单的模型(学生)被训练来模仿一个较大且较复杂的模型(教师)的行为或预测。教师网络通常是一个在大型数据集上并在特定任务上表现良好的模型。而学生网络被设计成的模型。其目标是在减少计算资源需求和提高推理速度的同时,尽可能地接近教师网络的性能。主要思想是利用教师网络的知识和经验来指导学生网络的学习过程。训练Student and Teacher network的过程被称为"它涉及使用教师网络的预测结果和真实标签来训练学生网络。。原创 2024-06-20 10:53:15 · 232 阅读 · 0 评论 -
似然 与 概率
似然与概率分别是针对不同内容的估计和近似。原创 2024-06-19 16:25:08 · 1077 阅读 · 0 评论