深度学习—— (5)数据不平衡之class_weight

深度学习——(5)数据不平衡之class_weight


在对图像或者其他数据进行分类的过程中,当每个类别中的样本数量不相等甚至相差很大的时候——出现数据不平衡的状况,这种状况会使得model在训练过程中一个batch中取到的样本都属于同一类别,同一类别样本学习到的特征都是相等的,造成在训练集上的loss值很低,但是在验证集上准确率不高的状况。
可以在计算loss值的时候加class_weight,具体过程如下:

from sklearn.utils.class_weight import compute_class_weight
import numpy as np

classes=[190,90,121,57,28]

label = np.zeros(train_num)
for i in range(classes[0]):
    label[i]=0
for i in range(classes[1]):
    label[classes[0]+i]=1
for i in range(classes[2]):
    label[classes[0]+classes[1]+i]=2
for i in range(classes[3]):
    label[classes[0]+classes[1]+classes[2]+i]=3
for i in range(classes[4]):
    label[classes[0]+classes[1]+classes[2]+classes[3]+i]=4

class_weights=compute_class_weight('balanced',np.unique(label),label)
class_weights=torch.tensor(class_weights,dtype=torch.float) # 数据不平衡,在loss计算过程中使用class_weight,给每一类一个权重
loss_function = nn.CrossEntropyLoss(class_weights)

之后计算loss即可,以上代码在CPU上运行是没有问题的,但是放在GPU上跑会报错,如下:

RuntimeError: Expected object of device type cuda but got device type cpu for argument #3 'weight' in call to _thnn_nll_loss_forward

在这里插入图片描述
查了查错误原因是因为在cpu上跑,device直接是cpu,直接用tensor就行。但是在GPU上运行一定要将loss中的参数class_weight加载到cuda。

解决方案

在原数据后面加.to(device),例如:

loss_function = nn.CrossEntropyLoss(class_weights.to(device))

886,让自己养成随手记录的好习惯~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柚子味的羊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值