BERT:loaded state dict contains a parameter group that doesn‘t match the size of optimizer‘s group

作者在使用预训练BERT时遇到问题,发现from_pretrained加载的模型不能直接用于trainer训练,因为其结构与自定义模型不同。from_pretrained主要用于finetuning而非重新训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近预训练BERT遇到这么一个问题,一开始以为transformer或者pytorch版本的问题,不断测试了好久,未能解决,然后我又调试了一下源码,搞了半天,终于搞明白是怎么回事了,这里记录下来,分享给大家:

发生上述错误的原因是调用了from_pretrained方法,加载了一个预训练模型,要想调用trainer去训练这个模型,这个模型必须是自己创建的,而不能是from_pretrained加载的,因为from_pretrained这个方法加载的模型和原生创建的结构并不完全一致,所以必须是自己创建的BERT模型才可以,而from_pretrained是用来fineturn的,不能用来调用trainer继续训练

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值