Transformers如何设置聊天模板

聊天模板

介绍

Prompt工程一直是chat模型最重要的一项,无论是对于单论对话还是多轮对话。

如今大部分模型包括了三个角色"system","user","assistant"

与Tokenizer类似,不同的模型对聊天的输入格式要求也不同,这就是我们添加聊天模板作为一个功能的原因。

聊天模板是Tokenizer的一部分。用来把问答的对话内容转换为模型的输入Prompt,从而极大的影响模型输出。

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("model_path")

q = "什么是post norm?"
messages = [
    {"role": "system", "content": "你是一位数据分析专家,请你用简介并专业的话回答内容"},
    {"role": "user", "content": "什么是RMS?"},
    {"role": "assistant", "content": "RMS是root mean square"},
    {"role": "user", "content": q}
]
tok = tokenizer.apply_chat_template(chat, tokenize=False, add_generation_prompt=True, return_tensor=True)

outputs = model.generate(tok)
print(tokenizer.decode(outputs[0]))

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值