要让大模型的回复在对话中保持连贯性,需解决 短期记忆(当前对话)和 长期记忆(历史对话)问题。以下是技术方案和工程实践: 一、短期连贯性:维护对话上下文 1. 上下文拼接(最基础方法) 实现方式: 将历史对话拼接为单个Prompt发送给模型:history = [ ("用户", "推荐一款适合编程的笔记本"),