天池-全球人工智能技术创新大赛【热身赛二】-中文预训练模型泛化能力挑战赛-NLP-改进优化

本文探讨了天池人工智能大赛中优化中文预训练模型的七大策略,包括修改损失函数、引入注意力机制、数据清洗、数据增强、微调模型、调整训练参数以及使用chinese-roberta-wwm-ext预训练模型,旨在提高模型泛化能力。
摘要由CSDN通过智能技术生成

背景

    由上篇文章可知,baseline跑通,需对模型进行改进和优化。

优化思路

1.修改 calculate_loss.py 改变loss的计算方式,从平衡子任务难度以及各子任务类别样本不均匀入手;
2.修改 net.py 改变模型的结构,加入attention层,或者其他层;
3.使用 cleanlab 等工具对训练文本进行清洗;
4.做文本数据增强,或者在预训练时候用其他数据集pretrain;
5.对训练好的模型再在完整数据集(包括验证集和训练集)上用小的学习率训练一个epoch;
6.调整bathSize和a_step,变更梯度累计的程度,当前是batchSize=16,a_step=16;
7.用 chinese-roberta-wwm-ext 作为预训练模型;

    综上所述,总共提供了7种方法可对比赛进行改进和优化进而上分操作。

baseline初始成绩
在这里插入图片描述

调整epochs
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值