上下文对话
上下文对话的作用就是让AI具有记忆力,在快速入门和流式对话中,我们是通过一种单一的输入输出方式进行调用的,这种调用方式无法让AI具有记忆力,例如,当我发起如下问题时:
- hi
- 中国的四大名著有哪些?
- 本次对话中,我的第一个问题是什么?
可以看到,AI无法根据之前的对话内容进行分析回复。因此,这就要求我们实现一个可以让ChatGPT具有一定的记忆力,并根据过去的聊天信息进行回复。
ChatGPT上下文对话的实现原理较为简单,本质上其实就是将不同角色的聊天信息依次存储在一个队列中发送给ChatGPT即可,然后ChatGPT会根据整个聊天信息对回复内容进行判断。在OpenAI提供的接口中,每条信息的角色总共分为三类:
- SystemMessage:系统限制信息,这种信息在对话中的权重很大,AI会优先依据SystemMessage里的内容进行回复;
- UserMessage:用户信息
- AssistantMessage:AI回复信息
还有一个FunctionMessage,这类信息用于AI的函数调用,一般不予以讨论。
这些Message均实现了一个Message
接口,如上图。AbstractMessage
提供了对Message
接口的抽象实现,SystemMessage
、UserMessage
、AssistantMessage
等均继承了AbstractMessage
,是Message的具体实现。而ChatMessage
是Message的扩展实现,用于创建其它大语言模型需要的Message。
通俗点讲就是有些AI的Message不支持这类System、User、Assistant等,这时,我们就可以通过ChatMessage去自定义创建可用的Message对象了。
如果我们需要实现上下文对话,就只需要使用一个List存储这些Message对象,并将这些Message对象一并发送给AI,AI拿到这些Message后,会根据Message里的内容进行回复。
不过,根据OpenAI的计费规则,你的消息队列越长,单次问询需要的费用就会越高,因此我们需要对这个消息列表的长度进行限制。
package com.ningning0111.controller;
import org.springframework.ai.chat.C