自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 Agent开发实战-langgraph重构

本文详细解析了基于LangGraph框架构建的紫微斗数AI Agent系统。该系统采用模块化设计,核心组件包括记忆系统(Chroma向量数据库)、状态管理(TypedDict)、节点化工作流(StateGraph)和大模型集成(本地Qwen)。工作流程包含记忆检索、大脑思考、记忆存储三个核心节点,形成完整对话闭环。技术亮点包括语义记忆检索、自动消息管理、流式执行和设备自适应。系统优势在于模块化设计、记忆增强、鲁棒性和性能优化,但也存在记忆管理、工具调用和错误处理等方面的改进空间。该实现为构建复杂AI应用提供

2026-04-22 14:37:20 361

原创 Agent开发实战-langChain重构

很多初学者直接上手 LangChain,会被它眼花缭乱的类名(Classes)和链条(Chains)搞晕,因为他们不知道底层在干嘛。但你不一样,当你看到 LangChain 的源码时,你会心一笑:“这不就是我前两天写的那个while循环和try-except嘛!

2026-04-16 16:22:40 234

原创 Agent开发实战-记忆模式

本文提出工业级Agent的三层记忆架构,解决大模型上下文窗口有限的问题。短期记忆(Buffer)保存最近对话保证实时性;摘要记忆(Summary)压缩历史信息保留核心内容;长期记忆(Vector)向量化存储海量数据。通过Python代码示例展示了三层记忆的协同机制:短期记忆采用滑动窗口管理,触发阈值后生成摘要并归档至向量数据库。关键点在于冲突处理策略:短期记忆>摘要>长期记忆,确保最新信息优先。该架构平衡了响应速度、信息密度和历史追溯能力,适用于需要长期对话维护的工业场景。

2026-04-16 14:42:39 215

原创 机器人模仿学习:如何优雅地将 ROS 2 数据对齐并转换为 LeRobot 格式

本文提出了一种工业级的两步法数据对齐方案,用于解决机器人模仿学习中ROS 2异步数据转换时的"因果撕裂"和"未来数据泄露"问题。通过"ZOH网格吸附+动作因果锚定"策略,先严格向后查找动作确保不借用未来数据,再以真实动作时间为锚点对齐状态和图像数据。该方案通过两个基础搜索工具(find_nearest_index和find_previous_index)实现,既能抵抗硬件抖动,又保证了数据的因果一致性,显著提高了模仿学习模型在实机测试中的成功率。核

2026-04-12 22:13:54 247

原创 Agent开发实战-ReAct 工作流

本文解析了AI Agent中ReAct工作流的核心机制。ReAct通过"思考-行动-观察"的循环(T-A-O),让大模型从被动应答升级为主动调用工具的智能体。文章详细介绍了其三步流程:1)模型思考并生成行动指令;2)系统拦截指令并执行外部工具调用;3)将执行结果反馈给模型进行下一步决策。关键实现技巧包括:使用stop参数控制生成、JSON异常捕获与自愈机制、循环次数限制防止死循环。文中还提供了包含错误处理的Python代码示例,展示了如何构建一个健壮的ReAct工作流,使AI Agent

2026-04-12 18:20:19 364

原创 Agent开发实战-调用本地模型

摘要 本文介绍了LLM模型的安装与调用方式。首先提到通过腾讯Qclaw实现自动化安装和问题解决。随后详细展示了一个本地调用脚本,支持Qwen 2.5 7B、Hermes 3 8B等模型,使用llama.cpp在RTX 5060 GPU上运行。脚本包含模型配置、格式构建、核心调用等功能模块,支持对话历史、温度调节等参数设置,并提供了性能统计和日志过滤功能。该方案实现了本地大语言模型的高效调用,适合中文场景下的AI应用开发。

2026-04-10 18:04:53 362

原创 Agent开发实战-持久化保存与调取

本文详细介绍了RAG系统的四大核心技术流程:向量化、持久化、双路查询和重排序。首先采用BAAI/bge-small-zh-v1.5模型进行文本向量化转换,实现语义理解;然后通过Chroma数据库实现向量数据的持久化存储;接着提出创新的双路查询机制,结合向量检索和BM25检索的优势;最后利用BAAI/bge-reranker-base模型对结果进行重排序优化。文章包含完整的代码实现和技术要点分析,为构建高效RAG系统提供了实践指南,特别针对中文场景进行了优化,平衡了检索精度与计算效率。

2026-04-09 22:46:55 370

原创 Agent开发实战-语义切片

本文介绍了语义切片(Semantic Chunking)技术及其优势。传统按字符数硬切的方法会导致语义断裂,而语义切片通过分析句子间的语义相似度来智能划分文本。其核心流程包括:句子拆分、向量化、相似度计算和断点识别。文中推荐使用BGE系列模型进行中文向量化,并展示了RAG系统中语义切片的应用场景。最后提供了一个Python代码示例,演示如何利用HuggingFaceEmbeddings和SemanticChunker实现语义切片功能,包括模型加载、文本处理和切片生成等步骤。

2026-04-08 10:27:38 228

原创 Agent开发实战(基于聊天记录和日记的数字分身)

本文提出一个14天高效进阶计划,分为四个阶段实现工业级RAG系统开发:1)重构RAG链路(1-5天),重点实现语义切片、混合检索和重排序;2)Agent工程(6-9天),构建自主调用RAG的智能体并实现记忆机制;3)多模态扩展(10-11天),集成视觉模型实现图文检索;4)系统封装(12-14天),完成API化部署和压力测试。计划强调实战导向,建议每天5小时(1小时理论学习+4小时编码实践),通过模块化开发快速构建可展示的工业级作品。

2026-04-07 21:33:13 391

原创 30天 LLM+RL+Agent 成长计划(day4)

固定prompt就是“一次性的指令”,Agent是“能自己琢磨、自己统筹事儿的小助手”,Skill就是这个小助手干活时,得用到的各种“工具和小脚本”,三者凑到一起,才能让AI自己完成一整套复杂的事儿,不用我们一遍一遍手动输指令、催进度。

2026-04-07 15:44:38 385

原创 30天 LLM+RL+Agent 成长计划(day2)

摘要:本文系统介绍了大语言模型(LLM)从底层训练到应用扩展的完整技术栈,通过四个关键概念SFT、RLHF、RAG和MCP展开。SFT(监督微调)让通用模型成为专业人才;RLHF/DPO(偏好对齐)优化模型价值观;RAG(检索增强)赋予模型实时知识获取能力;MCP(模型上下文协议)实现外部工具调用。文章详细解析了预训练、微调、对齐等技术原理,并展示了技术组合应用流程,完整呈现了LLM从基础认知到智能应用的演进路径。

2026-04-03 23:12:32 566

原创 30天 LLM+RL+Agent 成长计划(day3)

这篇文章详细介绍了SFT和RLHF的技术原理和实现细节

2026-04-03 22:46:34 61

原创 30天 LLM+RL+Agent 成长计划(day1)

Transformer极简理解、LLM架构、预训练/SFT/对⻬区别、LLM整体流程图

2026-04-01 13:43:59 384

原创 强化学习落地思考

从实用主义的角度看,模型对于强化学习是必不可少的,因为只有仿真模型才能赋予强化学习无限探索的能力,而不会对真实世界造成损害。因此应该尽量找到现成可用的仿真模型,但是,模型的误差会对强化学习的训练造成影响,所以需要通过专家知识和真实数据对模型进行调整和优化,以提升仿真的精确度。同时在训练的过程中使用域随机化的方法,以提升模型的泛化能力。如果实在没有现成可用的模型,或模型获取成本过高。也要尽量获取真实数据,通过真实数据来训练模型,这种时候就需要额外考虑模型的可解释性问题,以保证模型的有效性。

2023-12-06 11:32:39 1084

原创 用python写leetcode的脑筋急转弯题目

如有问题或建议请发邮箱457169663@qq.com三个脑筋急转弯 更文时间:2018/11/04用python刷leecode的题目NIM游戏 桌子上有一堆石头,每次你们轮流拿掉 1 - 3 块石头。 拿掉最后一块石头的人就是获胜者。你作为先手。编写一个函数,来判断你是否可以在给定石头数量的情况下赢得游戏。我们可以假设一下,如果桌子上只有1-3块石头,你第一次就可以全收...

2018-11-04 21:50:52 645

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除