LLM入门教程系列
最近就写点LLM入门的吧 =。=
本篇会介绍谷歌的Genmini API 如何实现简单的多轮对话。
首先依旧是声明一个模型
model = genai.GenerativeModel(model_name="gemini-pro")
然后需要开启一轮对话
chat = model.start_chat(history=[])
接着就可以开始我们的对话
response = chat.send_message("解释一下什么是决策树?")
print(response.text)
response = chat.send_message("好吧,再解释一下什么是ID3以及C4.5", stream=True)
for chunk in response:
print(chunk.text)
print("_"*80)
需要注意的是,第二次对话的时候,如果需要上下文的环境,需要指定参数stream=True
此时,我们可以得到下面的回复
以及第二个问题的回复
以上,就是简单多轮对话的实现。当然,这种只适合一些简单的情况,当需要更复杂的多轮对话,后面还有其他方式。