AttributeError: ‘BaiChuanTokenizer‘ object has no attribute ‘sp_model‘ HuatuoGPT的下载&错误处理

在从Huggingface下载国人做的医学大模型“HuatuoGPT”时,出现了以下报错(已隐去路径信息)

Traceback (most recent call last):
tokenizer = AutoTokenizer.from_pretrained(model_name)

...
return self.sp_model.get_piece_size()
           ^^^^^^^^^^^^^
AttributeError: 'BaiChuanTokenizer' object has no attribute 'sp_model'

可以看到是其内置的Tokenizer找不到相关的参数。关于这个问题,有两种解决方法,都可行。但是笔者因为不想修改很多环境,所以选择了第二种。

第一种 修改环境版本

首先查看Transformer版本

pip show transformers

如果你的版本高于4.33.3,那么这个方法是适用的

只需要卸载高版本Transformer,再次下载4.33.3的版本即可。需要注意的是,可能你的torch版本也需要同步到2.0

然后就可以正常运行了。

第二种 修改代码

首先进入Huggingface的官网找到模型(https://huggingface.co/FreedomIntelligence/HuatuoGPT-7B/tree/main

接下来下载tokenization_baichuan.py文件

将其中的super()放在最后,就可以解决报错问题,截图如下:

修改后的顺序为:

        self.vocab_file = vocab_file 
        self.add_bos_token = add_bos_token
        self.add_eos_token = add_eos_token
        self.sp_model = spm.SentencePieceProcessor(**self.sp_model_kwargs)
        self.sp_model.Load(vocab_file)
        super().__init__(
            bos_token=bos_token,
            eos_token=eos_token,
            unk_token=unk_token,
            pad_token=pad_token,
            add_bos_token=add_bos_token,
            add_eos_token=add_eos_token,
            sp_model_kwargs=self.sp_model_kwargs,
            clean_up_tokenization_spaces=clean_up_tokenization_spaces,
            **kwargs,
        )
        # self.vocab_file = vocab_file
        # self.add_bos_token = add_bos_token
        # self.add_eos_token = add_eos_token
        # self.sp_model = spm.SentencePieceProcessor(**self.sp_model_kwargs)
        # self.sp_model.Load(vocab_file)

然后就可以正常运行了。

下载模型的代码附下,每次只需要修改“model_name”即可:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

# 设置模型的名称
model_name = "FreedomIntelligence/HuatuoGPT-7B"

# 创建并保存tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_name)
tokenizer.save_pretrained("./HF_models/HuatuoGPT")

# 创建并保存模型
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)
model.save_pretrained("./HF_models/HuatuoGPT")

 

  • 9
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
AttributeError: 'BaichuanTokenizer'对象没有'sp_model'属性。 这个错误是说在'BaichuanTokenizer'对象中找不到'sp_model'这个属性。 首先,我们来解释一下这个错误的意思。在Python中,每个对象都可以具有属性,这些属性是对象的特征或数据。当我们尝试访问一个对象不存在的属性时,就会出现AttributeError。在这个错误消息中,它告诉我们'BaichuanTokenizer'对象没有'sp_model'属性。 要解决这个错误,你可以进行以下的调查和调试: 1. 检查代码中的拼写错误:请确保你正确地输入了属性名称,包括大小写是否匹配。可能会因为拼写错误导致找不到属性。 2. 检查对象实例化过程:确保你正确地实例化了'BaichuanTokenizer'对象,并且确保对象在被调用时已经存在。你可以查看相关代码,确认是否正确地创建了对象。 如果你确定以上两个方面都没有错误,那就有可能是因为你的'BaichuanTokenizer'对象没有定义'sp_model'属性。要解决这个问题,你需要检查你的代码或库文档,查看是否提供了与'sp_model'属性相关的方法或属性。你可以查阅相关的代码或文档来获取更多关于如何使用'BaichuanTokenizer'对象的属性的信息。 总之,'AttributeError'错误是由于尝试访问一个对象不存在的属性或方法引起的。解决此错误需要检查属性名称拼写错误、对象实例化是否正确以及检查文档和代码来确认是否定义了正确的属性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值