【2024最全最细Langchain教程-2 】Langchain模型I/O之模型包装器

【2024最全最细Langchain教程-1 】调用openai实现人工智能时代的hello_world-CSDN博客

中我们介绍了如何使用openai内置的方法进行调用,但是在实际业务中,我们不太可能直接去直接调用openai的接口,我们需要使用更简单和便利的工具来操纵大模型、向量数据库、本地文件等等,这个就是Langchain的重要意义,它基本就类似于JAVA后端开发时代的Spring、Structs等开发工具,会大大提高我们开发基于大模型的应用的效率:

1. 进入虚拟环境,启动jupyter

        安装langchain相关包(-q的意思是quiet,安装时不显示细节信息)

pip install -q langchain

2. 使用LLM模型包装器进行调用

        这里从langchain.llms中引入OpenAI,这里引入的是LLM模型

        设置秘钥

import langchain
import os

from langchain.llms import OpenAI

api_key = os.getenv("OPENAI_API_KEY")

 创建OpenAI的实例,temperature的值越高,openai的回答越发散、越有创造力(当然也有可能越不准确),调用OpenAI的 invoke()方法,输入问题,得到回答:

​
llm = OpenAI(
    openai_api_key = api_key, 
    temperature=0.5,
    base_url="https://wdapi7.61798.cn/v1"

)
response = llm.invoke('谁是中国改革开放的总设计师?')
print(response,type(response))

​

这里是结果显示,注意这里response的类型是string,使用LLM模型包装器调用返回的结果是字符串类型:

3. 使用聊天模型包装器进行调用

 从langchain_openai中引入的ChatOpenAI是聊天模型包装器,用法和上文提到的OpenAI基本一致,只是返回的消息是AIMessage类型:

import langchain
import os

from langchain_openai import ChatOpenAI


api_key = os.getenv("OPENAI_API_KEY")

llm = ChatOpenAI(
openai_api_key=api_key,
temperature = 0.5,
base_url = "https://apejhvxcd.cloud.sealos.io/v1"
)

response = llm.invoke("中国改革开放的总设计师是谁?")

print(response,type(response))

注意类型是不一样的:

 一般来说,两种模型包装器都是可以使用的,但是后面等我们开始构建比较复杂的应用的时候,我们还是推荐使用聊天模型包装器。

4. GITHUB和视频教学地址

        B站视频地址:【2024最全最细】langchain之模型包装器_哔哩哔哩_bilibili

        github地址:https://github.com/jerry1900/jupyter

        如需openai国内节点账号请与我联系:15652965525(微信)

  • 13
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值