LangChain —— Chat Model


一、什么是 Chat Model

 使用消息序列作为输入并返回 chat message 作为输出的语言模型 (与使用纯文本相反)。这些是传统上较新的模型 (旧模型通常是 LLM,见下文)。Chat Model 支持为对话消息分配不同的角色,有助于将 messages 与 AI、user 和 system message 等指令区分开来。
 尽管底层模型是消息输入、消息输出,但 LangChain 包装器也允许这些模型将 字符串 作为输入。这意味着您可以轻松地使用 Chat Model 来代替 LLM。
 当字符串作为输入传入时,它会被转换为 HumanMessage,然后传递给底层模型。
 LangChain 不托管任何聊天模型,而是依赖于第三方集成。
 在构建 Chat Models 时,我们有一些标准化的参数:

  • model
  • temperature
  • timeout
  • max_tokens
  • stop
  • max_retries
  • api_key
  • base_url

 一些需要注意的东西:

  • 标准参数仅适用于公开具有预期功能的参数的模型提供程序。例如,一些提供程序不公开最大输出令牌的配置,因此这些提供程序不支持 max_tokens。
  • 标准参数目前仅在具有自己的集成包的集成上强制执行 (例如 langchain-openai、langchain-anthropic 等),而在 langchain-community 的模型上则没有强制执行。

 ChatModels 还接受特定于该集成的其他参数。要查找 ChatModel 支持的所有参数,请指向该模型的 API 引用。

1、多模态模型

 一些聊天模式是多模式的,接受图像、音频甚至视频作为输入。这些仍然不太常见,这意味着模型提供者还没有标准化定义 API 的“最佳”方式。多模态输出甚至不太常见。因此,我们保持了多模态抽象的轻量级,并计划随着该领域的成熟进一步巩固多模态API和交互模式。

 在 LangChain 中,大多数支持多模式输入的聊天模型也接受 OpenAI 内容块格式的值。到目前为止,这仅限于图像输入。对于像 Gemini 这样支持视频和其他字节输入的模型,API 还支持本机特定于模型的表示。

 有关如何使用多模式模型的详细信息,请参阅此处的 相关操作指南


二、如何使用 ChatModel

 聊天模型是新形式的语言模型,它接收消息并输出消息。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值