基于FastAPI实现简单的微服务API网关 本文阐述了基于FastAPI实现一个API网关的详细步骤。这样未来可以不断的在服务端像搭积木一样添加各种服务。 我们即将实现下面的简单的微服务架构,目前它只实现了请求转发功能。
用FastAPI和langchain做本地大模型的API 本文讲述了如何使用FastAPI和langchain框架,包装本地大模型llama3.1,实现语言翻译功能的API。 相对于Flask,使用FastAPI做接口要简便得多。
使用Flask做langchain的API 本文讲述了如何使用一个利用本地大模型llama3.1实现语言翻译功能的API。 它用flask很轻松的将langchian服务开放为API,结合flasgger给文档添加注释并生成playground,并且使用jsonschema做json数据校验,轻松验证接口参数。
使用LangServe做本地大模型的API `LangServe` 是一个 `Python` 包,专门用于将基于 `LangChain` 的程序和链部署为生产就绪的 API。 本文通过一个简单的应用演示`LangServe`如何使用。
基于langchian和对话式RAG实现知识问答 本文概述了基于langchian框架和对话式增强生成技术实现知识问答。 具体来说,系统自动记录聊天历史,并把它作为上下文提供给大模型,这样它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答 本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 通过对比测试使用历史聊天记录和不使用历史聊天记录(即:以往的问题和答案)两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
使用langchain和本地部署的lamma3+chroma做RAG 在做RAG(RAG,Retrieval Augmented Generation,即:增强生成)系统时,经常会遇到数据安全、隐私保护等问题,此时使用本地部署的大模型和本地部署的矢量数据库时很必要的
在langchian中使用本地部署的llama3大模型 Ollama是一个工具和框架,主要用于本地部署和使用大语言模型(Large Language Models, LLMs)。它旨在帮助开发者和组织方便地在本地或私有环境中运行和交互这些模型,避免依赖外部API或云端服务,保护隐私并降低成本。langchain可以集成本地化大模型,实现智能问答等各种应用。
在Visual Studio Code中配置venv 相比其他环境管理工具,如conda,venv是Python内置的,轻量且容易上手,不需要额外安装和配置,特别适合一般的Python开发工作。 它对项目依赖的管理非常方便。
大模型的最大特色:涌现能力 涌现能力是在模型参数增加到某一临界点后突然出现的,这些能力包括但不限于语言理解能力、生成能力、逻辑推理能力等,而这种能力是小模型所不具备的。 这也是为什么chat GPT出现后让人眼前一亮:和它聊天与真人无异,不像是机器了!这主要应该归功于大模型的涌现能力。