- 博客(16)
- 收藏
- 关注
原创 LangGraph 对话内容筛选与存储实现指南
用LLM将对话历史压缩为摘要,用简短的摘要文本替代原始消息,保留关键信息。实现:在LangGraph图中创建一个专门的“摘要节点”,定期触发并将结果存入状态。LangMem 是 LangChain 团队专为 LangGraph 智能体(Agent)开发的开源长期记忆 SDK。它解决了 AI 在多轮对话中容易“失忆”的核心痛点,让智能体不仅能“记住”用户说过的话,还能从中“学习”和“进化”。
2026-04-17 10:31:19
359
原创 RAG技术介绍,工作流程,具体实现
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了信息检索和语言模型生成的混合AI技术。它通过在生成回答之前,从外部知识库中检索相关信息来增强语言模型的回答质量。LangGraph是LangChain生态系统中的一个组件,用于构建状态机驱动的应用程序。节点(Nodes): 执行特定任务的函数边(Edges): 定义节点之间的连接和流转逻辑状态(State): 在节点间传递的数据。
2026-04-15 09:57:00
404
原创 Anaconda部署python虚拟环境并创建langgraph项目
如果你的系统中已经安装了其他版本的 Python(例如系统自带 Python、通过其他方式安装的 Python 等),将 Anaconda 添加到全局 PATH 可能会覆盖原有的 Python 路径。如果你的系统环境比较复杂,或者不确定是否会有冲突,更推荐不添加到全局 PATH,而是通过“Anaconda Prompt”来使用,这是最安全、最稳定的方式。这个报错的意思是:你的 Conda 虽然安装了,但还没有“注册”到当前的命令行窗口(Shell)中,所以它不知道如何处理 activate 命令。
2026-03-31 10:26:46
343
原创 langchain query之后的工作流程
),LangChain 会使用与数据存入时相同的嵌入模型(Embedding Model),将你的文字问题转换成一个高维向量。LangChain 会将你原始的问题和上一步检索到的相关文档片段,按照预设的模板拼接成一个完整的提示词(Prompt)。简单来说,系统会先将你的问题转化为向量,去知识库里“查找”最相关的资料,然后将这些资料和你的问题一起交给大模型,让它生成一个精准的答案。溯源(可选):如果你需要,LangChain 还可以返回生成答案时所参考的原始文档片段,让你可以追溯答案的来源,增加可信度。
2026-03-22 11:08:50
210
原创 langchain 数据保存到向量数据库的流程
自动化:在调用 Chroma.from_documents 或 FAISS.from_documents 等方法时,向量化(第3步)和存储(第4步)是自动完成的,你只需提供文本和嵌入模型即可。整个流程可以清晰地分为四个主要阶段:数据加载、文本分割、向量化和存入数据库。FAISS:由 Facebook 开发,检索性能极高,适合处理大规模数据集的本地部署。Pinecone:全托管的云服务,无需自己维护基础设施,扩展性强,适合生产环境。Chroma:配置简单,开箱即用,非常适合原型开发和本地小型项目。
2026-03-22 11:03:39
191
原创 MCP简介
在 MCP 出现之前,大模型(如 GPT、Claude、千问)想要调用外部工具(比如查天气、发邮件、访问数据库),开发者需要为每一个工具单独写一套复杂的对接代码,非常麻烦且不通用。它定义了一套统一的规则,让大模型能像插 USB 设备一样,简单、安全地连接和调用成千上万的外部工具和数据源。MCP 是当前 AI 圈子里非常火爆的一个概念,全称是 Model Context Protocol,即模型上下文协议。你可以把它理解为 AI 世界的 “USB-C 接口标准” 或者 “万能转接头”。
2026-03-05 16:13:16
211
原创 RAGFlow简介
你可以把 RAGFlow 理解为一个专注于“知识库”和“精准问答”的专业工具。如果说 Dify 是一个通用的 AI 应用“组装工厂”,那么 RAGFlow 就是一个专门用来处理复杂文档、构建高质量知识库的“精密机床”。RAGFlow 是一款由 infiniflow 团队开源的企业级 RAG(检索增强生成)引擎。
2026-03-05 16:12:35
45
原创 Dify大模型应用开发平台
开源与可私有化部署: Dify 是开源的(基于 Apache 2.0 协议),这意味着企业可以免费下载代码,部署在自己的服务器上,保证数据不外泄,这对于金融、政府等对数据安全要求高的机构非常有吸引力。你可以在这里把提示词(Prompt)、大模型、数据检索(RAG)、代码、工具调用等模块像搭积木一样连接起来,定义应用的逻辑。如果你把 大模型(LLM) 看作是“发动机”,把 智能体(Agent) 看作是“整车”,那么 Dify 就是那个提供“生产线”和“组装工具”的工厂。🌟 为什么 Dify 很受欢迎?
2026-03-03 08:41:27
257
原创 智能体(agent)和大模型的关系
大模型与智能体的关系可以类比为"大脑"与"完整的人"。大模型(LLM)是智能体的核心推理引擎,而智能体(Agent)则是在大模型基础上整合了规划、记忆、工具调用和反思等能力的完整系统。智能体能够主动拆解复杂任务、调用外部工具、保持长期记忆,并形成"思考-行动-反思"的闭环。这种架构让AI从单纯的对话能力提升到能够执行实际任务的应用形态,实现了从"能说"到"能做"的进化。
2026-03-03 08:34:15
598
原创 Skill(技能)原理介绍
Skill的核心运行机制是“渐进式披露”(Progressive Disclosure),即AI在启动时仅加载所有Skill的元数据(名称和描述)进行初步判断,当任务匹配到某个Skill时,才按需加载其完整内容和相关资源,从而有效降低Token消耗,提升执行准确率和系统稳定性。Skill(技能)指为AI智能体(Agent)封装的、可复用、可组合的标准化能力单元,本质是“场景最佳实践+所需工具”的封装,核心作用是将大模型的抽象推理规划转化为可落地、可验证的具体操作。
2026-03-02 15:40:15
1126
1
原创 Agent(智能体)与工作流(Workflow)的关系
例如,Agent在自主决策后,可以调用一个预设的工作流来完成某个标准化的子任务(如生成报告、数据备份),从而将智能决策与高效执行结合起来。Agent(智能体)与工作流(Workflow)是两种不同的任务执行范式,二者的核心区别在于流程的控制权与灵活性,但它们并非对立关系,而是可以相互融合、协同工作的互补概念。它是一系列预定义、结构化的步骤,流程和规则在设计时就已确定,执行过程稳定、可预测。因此,许多先进的AI应用是二者的混合体,利用工作流的稳定性来兜底,用Agent的智能性来拔高,以应对更复杂的业务场景。
2026-03-02 14:05:28
693
原创 LangChain的作用
它能将用户的问题与外部知识库(如文档、数据库)中的相关信息检索出来,并作为上下文提供给模型,从而生成更准确、实时的答案。统一的模型接口 (Model I/O):它为各种大语言模型(如OpenAI的GPT、Anthropic的Claude、Hugging Face模型等)提供了统一的API接口,开发者可以轻松切换或集成不同模型,而无需重写大量代码。总而言之,LangChain通过其模块化的设计,为开发者提供了一套完整的工具链,极大地简化了从简单问答到复杂自动化流程的各类AI应用的开发、测试和部署过程。
2026-02-28 16:57:29
274
原创 配置 Spring Security 多认证源
配置多个SecurityFilterChain(或WebSecurityConfigurerAdapter),分别匹配不同的路径(如/admin/和/member/),每个链使用不同的AuthenticationManager(或共享但指定Provider)。Spring Security 允许我们定义多个 SecurityFilterChain,每个链可以匹配不同的请求路径模式,使用独立的 UserDetailsService、AuthenticationProvider 和过滤器。
2026-02-28 14:35:47
635
原创 若依框架的登录流程
在这个方法里,系统会根据用户名(如admin)从数据库(sys_user表)查询用户信息,并一并获取该用户的角色和菜单权限。认证管理器出手:AuthenticationManager(具体实现类是 ProviderManager)接手了这个令牌,并遍历其管理的所有 AuthenticationProvider,寻找能处理这个令牌的Provider。缓存用户信息:将这个 UUID 作为 key,将包含了用户信息和权限的 LoginUser 对象作为 value,存入 Redis 缓存,并设置过期时间。
2026-02-26 15:35:19
515
原创 js前端html页面转为canvas生成pdf打包zip下载
文章需要下载打印代码逻辑:循环文章列表,生成每篇文章的canvas,用then执行canvas之后的pdf生成,全部执行完成打包下载。
2025-09-01 11:47:58
169
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅