tr(self, key, value)AttributeError: property ‘eos_token‘ of ‘ChatGLMTokenizer‘ object has no

文章讲述了在使用Peft模型时遇到的问题,包括加载模型时覆盖tokenizer_config.json导致的错误,以及解决方法是更新peft包至0.7.1并确保训练和推理时使用的版本一致。还提到在训练参数中使用default_factory进行修改以解决问题。
摘要由CSDN通过智能技术生成

复制原模型的tokenizer_config.json文件到新模型下,覆盖新模型的这个文件

而后报错:

def load_model_and_tokenizer(model_dir: Union[str, Path]) -> tuple[Mode │ │ 28 │ model_dir = _resolve_path(model_dir) │ │ 29 │ if (model_dir / 'adapter_config.json').exists(): │ │ ❱ 30 │ │ model = AutoPeftModelForCausalLM.from_pretrained( │ │ 31 │ │ │ model_dir, trust_remote_code=True, device_map='auto' │ │ 32 │ │ ) │ │ 33 │ │ tokenizer_dir = model.peft_config['default'].base_model_name_or │ │ │ │ /home/dell/anaconda3/envs/llm3/lib/python3.11/site-packages/peft/auto.py:126 │ │ in from_pretrained

解决方法:

peft-0.7.1

而后又报错:

) │ │ 33 │ │ tokenizer_dir = model.peft_config['default'].base_model_name_or │ │ │ │ /home/dell/anaconda3/envs/llm3/lib/python3.11/site-packages/peft/auto.py:69 │ │ in from_pretrained │ │ │

...

│ 139 │ │ │ 140 │ @classmethod │ ╰──────────────────────────────────────────────────────────────────────────────╯ TypeError: LoraConfig.__init__() got an unexpected keyword argument 'use_dora'

Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...

解决思路:

peft 包: 训练时与推理时版本不一致

peft->0.7.1 ,然后训练,再推理试试看

另外:

    # training_args: Seq2SeqTrainingArguments = dc.field(

    #     default=Seq2SeqTrainingArguments(output_dir='./output')

    # )

代码改为如下代码: 

    training_args: Seq2SeqTrainingArguments = dc.field(

        default_factory=Seq2SeqTrainingArguments

    )

结果:pass ,ok

  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

艺桥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值