在微调过程中,发现每个大模型的Prompt Template都不一样,不知道从哪里能够找到针对特定模型的正确的Prompt Template,用来做指令微调?
- 可以在模型文件中搜索
build_inputs函数
,如果有chat模型的话,一般会有这个函数; - 可以使用
transformers
的tokenizer.apply_chat_template(messages, tokenize=False)
,tokenize=False可以保证只输出未经token化的prompt;
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("facebook/blenderbot-400M-distill")
chat = [
{