自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 Ubuntu20.04安装显卡驱动

如果你在桌面系统上使用GPU计算,则应该安装“nvidia-driver-535”。如果你在服务器系统上使用GPU计算,则应该安装“nvidia-driver-535-server”,

2023-07-23 10:58:22 1250

原创 conda基本命令

创建不成的话用下图中的方法。安装不成的话用下图中的方法。

2023-05-13 16:38:22 147

原创 Adaptive Logit Adjustment Loss

我们凭经验发现logit表现更好,原因是softmax后得到的预测概率相对于相应的logit更加尖锐,这将导致过大或过小的调整项。对于某些头部类别,尽管样本足够,但与其他类别的高语义相似性和缺乏有区分度的特征将带来较差的准确率。Menon等人,2020)中使用的常见幂函数(1/x^n)不同,我们凭经验发现对数函数(1/ log(x + 1))是一个更好的选择。图注:为了进一步证明QF的新函数形式是必要的,我们直观地在图2中展示了我们的QF与LDAM的比较。反之,困难的样本的DF趋于大。

2023-03-29 00:00:58 239

原创 Effective Number论文摘记

Cost-Sensitive Learning和Re-Weightng是一回事Sigmoid Cross-Entropy Loss( Sigmoid 交叉熵损失)在多分类任务中,Sigmoid 函数将每个类别视为独立的二分类任务,而不像 Softmax 函数那样将类别视为互斥的。Sigmoid 交叉熵损失的主要优点有两个:Sigmoid 函数不假设类别之间是互斥的,这使得它在处理现实世界中类别之间可能存在相似性的数据集时表现良好,尤其是在处理大量细粒度类别的情况下。

2023-03-27 23:02:52 131

原创 ABC论文摘记

其中,Lback为主干网络的损失(主干网络选用经典的SSL算法FixMatch或RemixMatch,Lback旨在用训练集中的权重样本训练一个高质量的特征提取器),最终推理时用只用ABC这个平衡的分类器来预测,而不用主干网络的不平衡分类器,即推理时不用上面的流程图中的Backbone Classifier!类比平衡问题都是试图在不平衡数据集上训练出一个在类别平衡的测试集中表现出的平均类别精度高(这里的精度指的不是整体的精确度,而是各类别精确度的平均值,即少数类也同等重要)的模型。(用来训练ABC的)

2023-03-26 23:28:43 196

原创 FixMatch论文摘记

最小化交叉熵损失或均方误差损失,使得模型对于同一样本的两种不同数据增强的预测结果尽可能地接近。

2023-03-26 14:10:47 292

原创 ###关于k-means的新理解

k-means收敛局部极值的原因很可能是初始化簇类中心的距离很接近,而且算法的收敛时间也加长了,为了避免这一情况,多次运行k-means聚类算法,每次运行初始化不同的簇类中心。k-means聚类算法的时间复杂度随着样本数的增加而增大,若样本量达到上万时,k-means聚类算法非常耗时,因此对该数据集进行无放回随机抽样得到合适的小批量样本数据集,sklearn.cluster包提供了相应的实现方法MiniBatchKMeans。小批量处理的k-means聚类算法在减少了收敛时间的同时,算法结果相差不大。

2023-03-26 09:51:41 254

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除