代码理解
pythonSuperman
这个作者很懒,什么都没留下…
展开
-
ones
【代码】ones。原创 2024-05-22 15:17:21 · 37 阅读 · 0 评论 -
池化
池化(Pooling)是卷积神经网络(CNN)中一个重要的操作,主要用于(feature maps)的维度,提高网络的抽象能力,同时减少计算量和防止过拟合。原创 2024-05-20 21:53:26 · 233 阅读 · 0 评论 -
Influence-Balanced Loss 中的Resample策略
例如,如果你有一个包含 100 个样本的数据集,并使用普通的采样器进行随机抽样,则每个样本被选中的概率都是 1%。这种采样方式简单且常用,但在处理类别极度不平衡的数据集时可能不够有效,因为它可能导致模型对多数类过拟合,而忽视了少数类。在这种情况下,假设数据集中有 𝑁个样本,那么每个样本被选中的概率和权重都是 1/𝑁。这种方式不考虑数据集中可能存在的类别不平衡问题,每个样本被选取的机会完全相同。这意味着在抽样过程中,每个样本被选中的概率是相等的。继承了sampler类,然后重新为数据集中的各样本分配权重。原创 2024-05-14 11:25:02 · 367 阅读 · 0 评论 -
CB公式推导
数学公式极限公式推导原创 2024-05-13 20:40:38 · 106 阅读 · 0 评论 -
IB 公式解析
逆频率权重:通过取样本数量的倒数,使得样本数量少的类别得到更高的权重。归一化:将权重标准化,并确保权重的总和与类别数量一致,保持权重比例的合理性。转换为张量:将权重转换为 PyTorch 张量,以便在训练过程中使用。这种权重计算方法确保了在处理类别不平衡问题时,少数类样本对损失函数的贡献增加,从而提高模型对少数类的识别能力。原创 2024-05-12 22:41:17 · 796 阅读 · 1 评论 -
改变向量形状
【代码】改变向量形状。原创 2024-05-12 20:27:51 · 116 阅读 · 0 评论 -
RuntimeError: Attempting to deserialize object on CUDA device 1 but torch.cuda.device_count() is 1.
显卡设备不匹配,原为'cuda:1',现为'cuda:0'。原创 2024-05-12 19:24:25 · 124 阅读 · 0 评论 -
Focal Loss损失函数
损失损失函数Focal Loss的引入主要是为了解决one-stage目标检测中正负样本数量极不平衡问题。那么什么是正负样本不平衡(Class Imbalance)呢?在一张图像中能够匹配到目标的候选框(正样本)个数一般只有十几个或几十个,而没有匹配到的候选框(负样本)则有10000~100000个。这么多的负样本不仅对训练网络起不到什么作用,反而会淹没掉少量但有助于训练的样本。上面说了是为了解决一阶段目标检测模型,那为什么二阶段不用解决呢?原创 2024-05-08 20:12:28 · 767 阅读 · 0 评论 -
在LDL代码读取方式上添加读取每类标签个数的列表
【代码】在LDL代码读取方式上添加读取每类标签个数的列表。原创 2024-05-08 17:19:13 · 61 阅读 · 0 评论 -
查看指定目录下的文件名称和序号
【代码】查看指定目录下的文件名称和序号。原创 2024-05-08 16:50:08 · 62 阅读 · 0 评论 -
F.softmax(cls) + 1e-4
为了减轻这种过拟合的可能性,可以在 softmax 操作中添加一个微小的常数(通常为 1e-4 或类似的小值),即在原始的分类得分中加上一个小的偏置。这样做的目的是使得模型对于分类得分的细微差异更加敏感,从而在一定程度上抑制过拟合的发生。在实践中,当某些分类得分特别大时,softmax 函数会将对应的概率接近于 1,而其他分类的概率会接近于 0。因此,这种平滑化操作有助于提高模型的鲁棒性,使得模型更加能够泛化到未见过的数据,并减少在训练集上过度拟合的可能性。原创 2024-05-07 13:27:05 · 179 阅读 · 0 评论 -
torch.flatten(x, 1)”和“x.view(x.size(0), -1)”有什么区别?
这两个操作在 PyTorch 中都用于将张量展平为一维。总的来说,两者实现的功能相似,但根据个人偏好和代码上下文的不同,选择合适的方法。原创 2024-05-06 18:27:48 · 231 阅读 · 0 评论 -
AverageMeter
【代码】AverageMeter。原创 2024-04-26 21:30:47 · 77 阅读 · 0 评论 -
gpu
【代码】gpu。原创 2024-04-25 16:54:56 · 86 阅读 · 0 评论 -
models.__dict__
-- models。原创 2024-04-24 21:43:39 · 154 阅读 · 0 评论 -
baseline SE SP YI是什么?
计算公式为:其中,TN(True Negatives)是真负例的数量,FP(False Positives)是假正例的数量。计算公式为:Youden指数的范围从0到1,值越大表示测试的性能越好,即同时具有较高的敏感性和特异性。计算公式为:其中,TP(True Positives)是真正例的数量,FN(False Negatives)是假负例的数量。SE、SP和YI是评估分类模型性能时常用的几个统计指标,特别是在医学影像处理、疾病诊断等领域,这些指标帮助了解模型对于正负类样本的识别能力。原创 2024-04-07 21:28:42 · 291 阅读 · 0 评论 -
理论学习 BatchNorm2d
表示一个批次大小为20的具有100个通道的二维图像。然后,将输入张量传递给。模块进行批归一化操作。首先,创建了一个具有100个通道的。,默认情况下具有可学习的参数。然后,又创建了一个相同的。这段代码展示了如何使用 PyTorch 中的。的形状,以验证批归一化操作的结果。进行批归一化操作,得到输出张量。接下来,创建了一个输入张量。来禁用了可学习的参数。原创 2024-03-11 11:46:44 · 187 阅读 · 0 评论 -
代码理解 ImageFolder
原创 2024-03-09 22:16:57 · 114 阅读 · 0 评论 -
代码理解 eq
【代码】代码理解 eq。原创 2024-03-09 21:25:59 · 93 阅读 · 0 评论 -
代码理解 pseudo_labeled = outputs.max(1)[1]
【代码】代码理解 pseudo_labeled = outputs.max(1)[1]原创 2024-03-09 21:25:03 · 198 阅读 · 0 评论