Dice Loss for Data-imbalanced NLP Tasks (Dice Loss,替代cross entropy(CE)处理数据不平衡问题)

https://github.com/ShannonAI/dice_loss_for_NLP

通过定义Dice Loss,替代cross entropy(CE)处理数据不平衡问题。

问题
在样本不平衡的情况中,主要有以下两种难以克服的难点
    the training-test discrepancy: 如果不能很好的平衡样本标签,那么模型学习过程通常会朝着有更多标签的类别收敛。
    the overwhelming effect of easy-negative examples: 如果容易判别的负样本太多,那么模型很难学习到真正区分正样本与负样本的边界,很难捕捉到特征。

方法

交叉熵

 权重交叉熵

 

 损失函数

实验

Part-of-Spee

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值