GPT实战系列-LangChain实现简单链

GPT实战系列-LangChain实现简单链

LangChain

GPT实战系列-LangChain如何构建基通义千问的多工具链

GPT实战系列-构建多参数的自定义LangChain工具

GPT实战系列-通过Basetool构建自定义LangChain工具方法

GPT实战系列-一种构建LangChain自定义Tool工具的简单方法

GPT实战系列-搭建LangChain流程简单应用

GPT实战系列-简单聊聊LangChain搭建本地知识库准备

GPT实战系列-LangChain + ChatGLM3构建天气查询助手

GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手

GPT实战系列-简单聊聊LangChain

大模型查询工具助手之股票免费查询接口

随着OpenAI的GPT-4这样的大型语言模型(LLMs)已经风靡全球,现在让它们自动执行各种任务,如回答问题、翻译语言、分析文本等。LLMs是在交互上真正体验到像“人工智能”。如何管理这些模块呢?

LangChain在这方面发挥重要作用。LangChain使构建由LLMs驱动的应用程序变得简单,使用LangChain,可以在统一的界面中轻松与不同类型的LLMs进行交互,管理模型版本,管理对话版本,并将LLMs连接在一起。

简单链

要实现一个链(chain),首先需要做一些配置初始化的工作,导入langchain相关的包。

from langchain.prompts import ChatPromptTemplate
from langchain.chat_models import ChatOpenAI
from langchain.schema.output_parser import StrOutputParser
from langchain_community.llms import Tongyi

实现代码,创建Prompt模版,配置大模型,以及输出解析函数。

#通过prompt模板创建一个prompt
prompt = ChatPromptTemplate.from_template(
    "请为我写一首关于 {topic}的诗。"
)

model = Tongyi( max_tokens=2048)

output_parser = StrOutputParser()
 
#创建一个简单链
chain = prompt | model | output_parser

response = chain.invoke({"topic": "大海"})
print(response)

简单链路:

ChatPromptTemplate(input_variables=['topic'], messages=[HumanMessagePromptTemplate(prompt=PromptTemplate(input_variables=['topic'], template='请为我写一首关于 {topic}的诗。'))]) 
| ChatOpenAI(client=<openai.resources.chat.completions.Completions object at 0x0000011D5F713340>, async_client=<openai.resources.chat.completions.AsyncCompletions object at 0x0000011D5EF0CEB0>,  openai_proxy='') 
| StrOutputParser()

调用效果:

题目:蔚蓝的赞歌——致大海

大海,你是蔚蓝的诗篇,
浩渺无垠,波涛汹涌的画卷。
你的深邃藏着宇宙的秘密,
你的宽广,是世界的心跳和呼吸。

你的晨曦,如新娘的面纱轻盈,
阳光洒落,万道金光闪烁晶莹。
你的黄昏,是诗人的情书,
晚霞渲染,温暖而悠长的梦境。

你的浪花,是自由的舞者,
跳跃、翻滚,诠释生命的狂热。
你的潮声,是永恒的交响乐,
低吟、高唱,唤醒沉睡的海岸线。

你的胸怀包容万物,无畏无惧,
无论是小舟还是巨轮,都在你怀抱里游弋。
你的力量,有时温柔,有时狂暴,
教诲着生命,坚韧与柔情并存的奥妙。

大海,你是神秘的哲人,
用潮起潮落,讲述岁月的流转。
你是孕育生命的摇篮,
赋予万物生机,滋养着大地的脉络。

你的蔚蓝,深邃而广阔,
如同天空的倒影,连接着天际的尽头。
大海,你是梦想者的追寻,
在你的怀抱,我们找寻着自我,追逐着希望。

哦,大海,你的壮丽无法言表,
你的魅力,让心灵得以翱翔。
你是大自然的赞歌,是生命的颂扬,
在你的怀抱,我们感受到那份无尽的宽广。

再次写诗

海之颂:蔚蓝的梦幻交响曲

大海,你是一首无尽的诗,
蔚蓝的韵律,波涛的篇章。
你的深邃,如同宇宙的秘密,
藏着星辰,蕴藏着生命的起源。

浩渺的蔚蓝,无边无际的宽广,
你的怀抱,孕育着万千生灵。
浪花翻滚,是你的欢笑与泪水,
每一滴水珠,都诉说着故事的痕迹。

海鸥翱翔,破晓的旋律在空中回荡,
潮起潮落,奏响着自然的交响。
你的声音,是宁静中的低语,
是狂风暴雨中的坚韧歌唱。

你的颜色,随着天空的变幻而变幻,
清晨的淡蓝,黄昏的金黄。
你是画家的调色盘,是诗人的灵感,
在你的面前,一切描绘都显得苍白。

大海,你是神秘的哲人,
教会我们宽恕与包容的力量。
你的深沉,犹如智慧的眼睛,
洞悉世事,却始终保持沉默。

你的愤怒,如狂狮般震撼天地,
提醒我们,尊重与敬畏的必要。
而当风暴过后,你又恢复平静,
留下一片宁静,抚慰受伤的心灵。

大海,你是一首永恒的赞歌,
在你的面前,人类如此渺小。
你的壮丽,激发我们的梦想,
让我们向往,那未知的彼岸。

让我们倾听,你的潮汐呼吸,
感受你的脉搏,跳动在灵魂深处。
大海,你是生命的摇篮,是梦想的港湾,
在你的怀抱里,我们永远追寻,那蔚蓝的梦幻。

LangChain是一个Python框架,可以使用LLMs构建应用程序。它与各种模块连接,使与LLM和提示管理,一切变得简单。

觉得有用 收藏 收藏 收藏

点个赞 点个赞 点个赞

End

GPT专栏文章:

GPT实战系列-实战Qwen通义千问在Cuda 12+24G部署方案_通义千问 ptuning-CSDN博客

GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案

GPT实战系列-Baichuan2本地化部署实战方案

GPT实战系列-让CodeGeeX2帮你写代码和注释_codegeex 中文-CSDN博客

GPT实战系列-ChatGLM3管理工具的API接口_chatglm3 api文档-CSDN博客

GPT实战系列-大话LLM大模型训练-CSDN博客

GPT实战系列-LangChain + ChatGLM3构建天气查询助手

GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)

GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)

GPT实战系列-ChatGLM2模型的微调训练参数解读

GPT实战系列-如何用自己数据微调ChatGLM2模型训练

GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案

GPT实战系列-Baichuan2等大模型的计算精度与量化

GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF

GPT实战系列-探究GPT等大模型的文本生成-CSDN博客

  • 28
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
使用gpt-3.5-turbo api实现上下文关联回答的功能,需要先了解一下gpt-3.5-turbo api的调用方式和参数设置。 首先,我们需要在OpenAI平台上注册一个账号,然后创建一个gpt-3.5-turbo api的应用程序,并获取API密钥。 接下来,我们可以使用Python编程语言来调用gpt-3.5-turbo api,具体步骤如下: 1. 安装OpenAI的Python SDK,可以使用以下命令进行安装: ```python pip install openai ``` 2. 导入OpenAI的Python SDK,并设置API密钥: ```python import openai openai.api_key = "YOUR_API_KEY" ``` 3. 设置gpt-3.5-turbo api的参数,包括模型ID、上下文、提示文本等: ```python model_engine = "text-davinci-002" # 模型ID context = "I am a student." # 上下文 prompt = "What do you think about the student?" # 提示文本 ``` 4. 调用gpt-3.5-turbo api,获取回答结果: ```python response = openai.Completion.create( engine=model_engine, prompt=prompt, max_tokens=100, n=1, stop=None, temperature=0.5, context=context ) answer = response.choices[0].text.strip() ``` 在上面的代码中,我们使用了OpenAI的Python SDK提供的Completion.create()方法来调用gpt-3.5-turbo api,其中max_tokens参数表示生成的文本长度,n参数表示生成的文本数量,stop参数表示停止字符,temperature参数表示温度值,context参数表示上下文。 最后,我们可以将回答结果输出到屏幕上或者保存到本地文件中: ```python print(answer) ``` 以上就是使用gpt-3.5-turbo api实现上下文关联回答的简单步骤,需要注意的是,对于不同的应用场景,可能需要调整不同的参数来达到更好的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Alex_StarSky

你的鼓励是创作的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值