问题描述
本地部署Qwen1.5系列模型后,与Qwen一样利用 model.chat() 与大模型进行交互会报Qwen2ForCausalLM object has no attribute ‘chat’ 错误,原因在于Qwen1.5模型不提供chat()方法,而是用其他方法实现(具体参考huggingface Qwen1.5 quickstart,文章末尾有链接)。因此,本文针对Qwen1.5模型实现了一个简单的chat()方法,以便读者像以往的方式一样可以利用历史记录和问题进行多轮对话。
解决方案:
参数说明:
model: AutoModelForCausalLM.from_pretrained()
tokenizer: AutoTokenizer.from_pretrained()
ques: LLM接收的输入
history: 对话历史记录,格式:[{“role”: “system”, “content”: “You are a helpful assistant.”}, {“role”: “user”, “content”: ques}]
temperature: 温度参数,与Qwen默认值保持一致,0.7
def chat1_5(model, tokenizer, ques, history=[], temperature = 0.7):
if