T5模型 在OCNLI 训练微调 4

资料

我的代码:https://github.com/Whiffe/Bert-OCNLI/tree/main/T5-OCNLI-yf

过去的内容:
Bert 在 OCNLI 训练微调
Bert 在 OCNLI 训练微调 2
BERT系列模型 在OCNLI 训练微调 3

模型下载与训练测试

mt5-base

conda install -c conda-forge sentencepiece

https://huggingface.co/google/mt5-base/tree/main
在这里插入图片描述

调用t5模型的过程:https://blog.csdn.net/znevegiveup1/article/details/121300828

训练测试结果:

train.50k.json、max_length=128、batch_size=32、dropout=0.1、lr=5e-5、epochs=10
准确率:70.13
train.50k.json、max_length=128、batch_size=32、dropout=0.3、lr=5e-5、epochs=10
准确率:70.03
train.50k.json、max_length=128、batch_size=32、dropout=0.2、lr=5e-5、epochs=10
准确率:67.43
train.50k.json、max_length=128、batch_size=32、dropout=0.1、lr=1e-5、epochs=10
准确率:58.9%
train.50k.json、max_length=128、batch_size=32、dropout=0.1、lr=5e-5、epochs=15
准确率:70.7%
train.50k.json、max_length=128、batch_size=16、dropout=0.1、lr=5e-5、epochs=15
准确率:37.63%
train.50k.json、max_length=128、batch_size=64、dropout=0.1、lr=5e-5、epochs=15
准确率:37.8%

t5-base

https://huggingface.co/google-t5/t5-base/tree/main

在这里插入图片描述
训练测试准确率

train.50k.json、max_length=128、batch_size=32、dropout=0.1、lr=5e-5、epochs=15
准确率:37.6%

nlp_mt5_zero-shot-augment_chinese-base

全任务零样本学习-mT5分类增强版-中文-base · 模型库 (modelscope.cn):https://www.modelscope.cn/models/iic/nlp_mt5_zero-shot-augment_chinese-base/files

在这里插入图片描述
训练测试准确率:

train.50k.json、max_length=128、batch_size=32、dropout=0.1、lr=5e-5、epochs=15
准确率:71.6%

mt5-large

https://huggingface.co/google/mt5-large/tree/main
在这里插入图片描述
训练测试准确率:

在这里插入代码片
  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值