LangChain中,ConversationChain
、LLMChain
和直接调用豆包大模型区别
在LangChain中,ConversationChain
、LLMChain
和直接调用豆包大模型(如 client.chat.completions.create
)的核心区别在于 结构化程度 和 上下文处理能力。以下是具体说明和代码示例:
1. 直接调用豆包大模型
特点:
- 无结构化:直接构造
messages
参数,需手动管理对话上下文。
- 无记忆:每次请求独立,不保留历史对话。
代码示例:
from openai import OpenAI
c