自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

翻译 LangChain初体验之管道提示词模版

然后,您可以轻松地创建一个将其与其他消息相结合的管道 或消息模板。当没有变量时使用Message 格式化,当有变量时使用MessageTemplate 格式化了。您也可以只使用一个字符串(注意:这将自动 被推断为HumanMessagePromptTemplate。在此管道中,每个新元素都是最终提示中的新消息。使用字符串提示时,每个模板都连接在一起。您可以直接使用提示或字符串(列表中的第一个元素需要是提示)。在后台,这会创建一个ChatPromptTemplate类的实例,因此您可以像以前一样使用它!

2024-04-27 15:32:01 29

翻译 LangChain初体验之对话模型提示词模版

"})

2024-04-27 15:29:58 21

翻译 LangChain初体验之带例子的提示词模板

下例中,我们将使用SemanticSimilarityExampleSelector类,该类根据其与输入的相似性选择few-shot示例,它使用嵌入模型来计算输入和示例之间的相似性,以及向量存储来执行最邻近搜索。但是,我们不会将示例直接输入到FewShotPromptTemplate对象中,而是将它们输入到示例选择器对象中。该对象接受示例选择器和少数示例的格式化程序。在本教程中,我们将学习如何创建使用少量示例的提示模板。每个示例都应该是一个字典,键是输入变量,值是这些输入变量的值。

2024-04-27 15:23:17 27

原创 Chatglm3-6b初体验

【代码】Chatglm3-6b初体验。

2024-04-25 16:36:56 168 1

原创 LangChain初体验之Memory

内存系统需要支持两个基本动作:读取和写入。回想一下,每个链都定义了一些需要某些输入的核心执行逻辑。其中一些输入直接来自用户,但其中一些输入可能来自内存。在给定的运行中,一条链将与其内存系统交互两次。在接收到初始用户输入后但在执行核心逻辑之前,链将从其内存系统中读取并增强用户输入。在执行核心逻辑之后但在返回答案之前,链将把当前运行的输入和输出写入内存,以便在未来运行中引用它们。状态是如何存储的如何查询状态。

2024-04-18 18:14:19 237

原创 LangChain初体验之Chains

LangChain 中的链由多个组件组成,每个组件都实现了 Chain 接口。这些组件可以包括 LLM、工具、数据处理器等。

2024-04-18 18:12:25 118

原创 LangChain初体验之提示词

添加示例example,并重新进行选择。

2024-04-18 18:11:38 232

原创 LangChain初体验之输出解释器

除了拥有大量不同类型的输出解析器之外,LangChain OutputParser的一个显着优势是它们中的许多都支持流。输出解析器负责获取LLM的输出并将其转换为更合适的格式。当您使用LLM生成任何形式的结构化数据时,这非常有用。此输出解析器允许用户指定任意模式并查询符合该模式的输出的LLM,使用YAML格式化他们的响应。此输出解析器允许用户指定任意JSON模式并查询符合该模式的输出的LLM。当您想要返回逗号分隔项的列表时,可以使用此输出解析器。

2024-04-18 18:09:55 320

原创 LangChain初体验之文档拆分

加载文档后,您通常希望对其进行转换以更好地适应您的应用程序。最简单的例子是,您可能希望将长文档拆分为适合模型上下文窗口的较小块。LangChain有许多内置的文档转换器,可以轻松拆分、组合、过滤和以其他方式操作文档。当您想处理长文本时,有必要将该文本拆分为块。尽管这听起来很简单,但这里有很多潜在的复杂性。理想情况下,您希望将语义相关的文本片段放在一起。“语义相关”的含义可能取决于文本的类型。导入枚举语言并指定语言。这基于字符(默认为“”)进行拆分,并通过字符数测量块长度。

2024-04-15 19:10:07 212

原创 LangChain初体验之数据加载

使用文档加载器从源加载数据作为文档。文档是一段文本和相关的元数据。例如,有文档加载器用于加载简单的. txt文件、加载任何网页的文本内容,甚至用于加载YouTube视频的抄本。文档加载器提供了一种"加载"方法,用于将数据从配置的源加载为文档。它们可以选择实现“延迟加载”以及将数据延迟加载到内存中。下面以一个完成的例子(web加载)来演示数据如何加载数据、数据如何转换、嵌入模型、向量存储、检索等。本例子通过加载web数据的方式,展示数据如何加载数据、数据如何转换、嵌入模型、向量存储、检索等。

2024-04-12 10:05:21 287

原创 LangChain初体验之HelloWorld

LangChain是一个用于开发由大型语言模型(LLM)提供支持的应用程序的框架。开发:使用LangChain的开源构建块和组件构建您的应用程序。使用第三方集成和模板开始运行。产品化:使用LangSmith检查、监控和评估您的链,让您可以放心地持续优化和部署。部署:使用LangServe将任何链变成API。langchain-core:基础抽象和LangChain表达式语言。langchain-Community:第三方集成。

2024-04-12 09:54:55 315

原创 基于chatOllama实现本地RAG应用

进入模型下载页面,下载模型,因为我之前用ollama pull过很多模型,所以这里就展示出来了,如果没有下载过,在下载地址栏输入模型名称即可。根据文档内容提问,可以得到相应的回答,可以看到回答的内容和上传的文档内容大致相似,并且可以看到来源是pdf文档。导入完成之后,点击opsany部署,进入chat页面,点击编辑按钮就入编辑页面,选择模型。进入知识库页面,点击导入本地文件,选择本地文件,点击导入即可,支持多个文件导入。,并在命令行中执行如下命令,开始下载相关docker。

2024-04-10 16:16:34 977

原创 轻松搭建本地大模型Ollama+OpenWebUI

Ollama是一个开源的LLaMA 2.0的桌面应用程序,它允许用户在本地运行LLaMA 2.0,并使用它进行聊天、生成文本等操作。

2024-04-09 11:04:46 1166

原创 大模型推理工具:vLLM的入门使用

vLLM是一个快速且易于使用的LLM推理和服务库。最先进的服务吞吐量使用PagedNote有效管理注意力键和值内存传入请求的连续批处理使用CUDA/HIP图快速执行模型量化:GPTQ、AWQ、SqueezeLLM、FP8 KV缓存优化的CUDA内核与流行的拥抱脸模型无缝集成高吞吐量服务于各种解码算法,包括并行采样、波束搜索等分布式推理的张量并行性支持流式输出与OpenAI兼容的API服务器支持NVIDIA GPU和AMD GPU(实验性)前缀缓存支持。

2024-04-08 16:31:21 2423

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除