问题报错:'ChatGLMTokenizer' object has no attribute 'build_prompt'
报错原因:训练时候 文件完整性导致的,huggingface skip large file会导致一些文件没有被完全下载下来
问题解决:可以把 /chatglm2-6b 里 tokenization_chatglm.py ,类'ChatGLMTokenizer'的 函数 'build_prompt',添加到 /chatglm-6b 的modeling_chatglm.py 里就可以解决该问题了。
具体实现:从glm2源码中tokenization_chatglm.py 里边找到如下方法
def build_prompt(self,query, history=None):
if history is None:
history = []
prompt = ""
for i, (old_query, response) in enumerate(history):
prompt += "[Round {}]\n\n问:{}\n\n答:{}\n\n".format(i + 1, old_query, response)
prompt += "[Round {}]\n\n问:{}\n\n答:".format(len(history) + 1, query)
return prompt
去掉self,放在模型训练生成的文件modeling_chatglm.py 最上边
def build_prompt(query, history=None):
if history is None:
history = []
prompt = ""
for i, (old_query, response) in enumerate(history):
prompt += "[Round {}]\n\n问:{}\n\n答:{}\n\n".format(i + 1, old_query, response)
prompt += "[Round {}]\n\n问:{}\n\n答:".format(len(history) + 1, query)
return prompt
问题解决
相关链接: