每日读源码---Day1_ChatglmModel

from transformers import AutoTokenizer, AutoModel

class ChatglmModel:
    def __init__(self, plm = 'THUDM/chatglm-6b') -> None:
        self.tokenizer = AutoTokenizer.from_pretrained(plm, trust_remote_code=True)
        self.model = AutoModel.from_pretrained(plm, trust_remote_code=True).float() #half().cuda()
        self.model = self.model.eval()

    def generate(self, text, temperature=0.8, system = "", top_p=0.8):
        if len(system) > 0:
            text = system + '\n\n' + text
        response, history = self.model.chat(self.tokenizer, text, history=[], top_p=top_p, temperature=temperature, max_length= 4096)
        return response
  • def __init__(self, plm = 'THUDM/chatglm-6b') -> None::定义了类的初始化方法【它接受一个参数 plm,默认值为 'THUDM/chatglm-6b'。这个参数指定了预训练语言模型的名称】。
  • self.tokenizer = AutoTokenizer.from_pretrained(plm, trust_remote_code=True):使用指定的预训练模型初始化一个 AutoTokenizer 对象,用于将文本转换为模型可以理解的格式。
  • self.model = AutoModel.from_pretrained(plm, trust_remote_code=True).float():使用指定的预训练模型初始化一个 AutoModel 对象,并将其转换为浮点数格式。
  • 注释掉的 #half().cuda() 是用于将模型转换为半精度并移动到 GPU 上,但在这里被注释掉了。
  • self.model = self.model.eval():将模型设置为评估模式,这意味着在生成文本时不会进行梯度计算。
  • def generate(self, text, temperature=0.8, system = "", top_p=0.8)::定义了一个名为 generate 的方法,用于生成文本。【text:要生成响应的输入文本。temperature:控制生成文本的随机性的参数。system:系统消息,可以用于在生成文本之前设置上下文。top_p:核采样(nucleus sampling)的参数,用于控制生成文本的多样性。】
  • if len(system) > 0::如果 system 参数不为空,则将其添加到输入文本的前面。
  • response, history = self.model.chat(self.tokenizer, text, history=[], top_p=top_p, temperature=temperature, max_length= 4096):调用模型的 chat 方法来生成响应。这个方法接受 tokenizer、输入文本、历史记录、top_ptemperature 和最大长度作为参数。
  • return response:返回生成的响应。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只天蝎

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值