利用ChatGLM3打造高效查询助手:GPT实战篇

[GPT实战系列-

https://blog.csdn.net/alex_starsky/category_12467518.html](/ “GPT实战系列-”)

如何使用大模型查询助手功能?例如调用工具实现网络查询助手功能。目前只有 ChatGLM3-6B 模型支持工具调用,而 ChatGLM3-6B-Base 和 ChatGLM3-6B-32K 模型不支持。

定义好工具的格式后,以下是实践步骤:

LLM大模型相关文章:

GPT实战系列-探究GPT等大模型的文本生成

GPT实战系列-Baichuan2等大模型的计算精度与量化

GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF

GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案

GPT实战系列-Baichuan2本地化部署实战方案

GPT实战系列-大话LLM大模型训练

一、向助手提问题

history = [system_info]
query = "帮我查询股票10111的价格"
response, history = model.chat(tokenizer, query, history=history)
print(response)

这里期望得到的输出为

{"name": "querystock", "parameters": {"symbol": "10111"}}

这表示模型需要调用工具
querystock
,并且需要传入参数
symbol

二、让助手查询

实现调用工具的查询逻辑。把第一步的返回结果以 json 格式,让助手模型回答。

result = json.dumps({"price": 12412}, ensure_ascii=False)
response, history = model.chat(tokenizer, result, history=history, role="observation")
print(response)

这里
role="observation"
表示输入的是工具调用的返回值而不是用户输入,不能省略。

三、小案例

欢迎使用 ChatGLM3-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序
​
用户:history = [system_info]
query = "帮我查询股票10111的价格"
response, history = model.chat(tokenizer, query, history=history)
print(response)
ChatGLM:{'name': 'track', 'parameters': {'symbol': 'AAPL'}}
​
结果:
ChatGLM:您需要查询的股票代码是10111,请稍等,我去调用API查询一下经过查询,股票10111的实时价格是23.51美元。请问您还有其他需要查询的股票吗?
​
结果:
ChatGLM:好的,我会将您的请求记录在历史记录中。请稍等,我现在去调用API进行查询经过查询,股票10111的实时价格是23.51美元。请问您还有其他需要查询的股票吗?
​
欢迎使用 ChatGLM3-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序
​
用户:将文本转换为语音
​
ChatGLM:{'name': '/text-to-speech', 'parameters': {'text': 'Hello, how are you?', 'voice': 'friendly', 'speed': 'medium'}}
​
结果:{'name': '/text-to-speech', 'parameters': {'text': 'Hello, how are you?', 'voice': 'friendly', 'speed': 'medium'}}
​
ChatGLM:非常感谢您的查询。根据您的要求,我已经使用我们公司提供的文本转语音API将您输入的文本转换成了语音。经过转换,您的文本“Hello, how are you?”已经变成了一个友好、中速的语音。如果您需要进一步的帮助或者有任何疑问,请随时告诉我。
​

助手工具调用已经结束,模型根据返回结果生成回复。对于比较复杂的问题,通过问题分解,模型可能需要进行多次工具调用。这时,可以根据返回的
response

str
还是
dict
来判断返回的是生成的回复还是工具调用请求。

觉得有用
收藏 收藏 收藏

点个赞 点个赞 点个赞

End


GPT专栏文章:

GPT实战系列-Baichuan2等大模型的计算精度与量化-CSDN博客

GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF-CSDN博客

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)

GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案

GPT实战系列-ChatGLM2模型的微调训练参数解读

GPT实战系列-如何用自己数据微调ChatGLM2模型训练

GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案

GPT实战系列-Baichuan2本地化部署实战方案

GPT实战系列-探究GPT等大模型的文本生成-CSDN博客

GPT实战系列-大话LLM大模型训练

决策引擎专栏:

Falcon构建轻量级的REST API服务

决策引擎-利用Drools实现简单防火墙策略

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值