- 博客(960)
- 收藏
- 关注
原创 你的 Agent 服务是如何保证高可用和稳健性的?
但 Agent 场景下的重试和传统服务的重试有一个重要区别:LLM 调用的成本很高(每次都消耗 token),而且由于输出的不确定性,重试不一定能得到更好的结果。但 Agent 服务除了这些硬故障之外,还有一大类传统服务里几乎不存在的软故障:服务在技术层面完全正常运行、没有任何报错,但 Agent 的行为已经出了问题——它可能在重复调用同一个工具、可能生成了格式错误的参数导致下游静默失败、可能在推理上兜圈子消耗大量 token 却没有任何进展、也可能给出了一个看起来合理但实际上完全错误的结果。
2026-04-29 10:30:18
287
原创 为什么 Rerank 是 RAG 从“玩具”走向“生产”的分水岭
向量搜索解决了“大海捞针”的问题,而 Rerank 解决了“捞出来的针是不是绣花针”的问题。在企业级 AI 应用开发中,如果你还在抱怨 RAG 效果不好,先别急着换 Embedding 模型,试着把 Rerank 这道防线筑起来。这才是从 Demo 到 Production 的真正进阶。
2026-04-29 10:28:32
271
原创 Sub-Agent VS Agent Team:多智能体架构和上下文边界
写到这里,我自己其实是在给"多智能体架构"做一次降温。这一波 Agent 热,名词太多、范式太多、架构图太多。Team、Swarm、Crew、Society、Hive……每隔两周就有一个新词冒出来。但回到工程,其实只有一个最朴素的问题:我手上这个任务,要的是隔离、压缩、并行,还是要的是持续协作、共享状态、互相影响?前者用 Sub-Agent,后者用 Agent Team,两者都不要的时候直接单 Agent。再往上配一两个朴素的编排原语,多数生产场景就够了。
2026-04-29 10:26:40
388
原创 大模型 Agent 的“记忆”,到底应该怎么设计?
如果用一句话概括这篇论文,它真正提出的是一种从“长上下文崇拜”转向“长期状态管理”的思维方式。对于普通聊天机器人而言,把更多历史塞进上下文也许暂时可行;但对于长期运行的 Agent、企业助手、科研助手、编程助手和个人助理来说,历史信息会持续增长、事实会不断变化、用户偏好会长期存在、旧信息与新信息会发生冲突,因此系统必须具备抽取、管理、存储和检索的完整闭环。本文的意义就在于,它把 Agent Memory 变成了一个可比较、可诊断、可组合的系统工程问题,而不是停留在“模型是否记得住”的抽象讨论上。
2026-04-29 10:24:11
328
原创 【模型推理系列-5】模型推理加速关键技术
推理工程最酷的一点是,与许多学术新研究需要数年甚至数十年才被工业界采用的行业不同,新论文中的技术在短短几个月甚至几周内就应用在了生产环境中。从研究到生产之间存在一道需要跨越的鸿沟,而工业界中一些最受瞩目的推理工程工作就来自于弥合这道鸿沟。推理工程的一个核心原则是:你在推理系统中引入的约束条件越多,就能获得越好的性能。这一原则在本文中依然适用,比如解耦技术,它允许你将单个引擎约束到预填充和解耦阶段。你的流量越大,能做的性能优化就越多(同时保持合理的单位经济性)。
2026-04-29 10:20:11
377
原创 从Prompt工程到Harness工程:大语言模型系统的下一波进化
回顾 2023 年初。人们写提示词就像在念咒——思维链、少样本示例、扮演斯坦福教授。说实话?确实管用。至少管用了一阵子。提示词没法规模化,因为问题从来不只是你对大语言模型说了什么。问题在于——提示词发出之前会发生什么,生成过程中会发生什么,模型返回响应之后会发生什么,模型出错时怎么办,用户做了意料之外的操作时怎么办,数据变了怎么办,业务需求调整了怎么办。生产级的大语言模型系统不是一个提示词。它是一个系统——而系统需要的是工程。这篇文章讲的就是下一步。
2026-04-27 10:23:39
278
原创 告别乱切片!Java + LangChain4j 实现高质量 RAG 文档拆分
真正的 RAG 系统优化,是一项极其细致的脏活累活,考验的全是对非结构化数据治理的细致把控。
2026-04-27 10:20:13
310
原创 大模型高效推理新答案:ICLR 2026提出Balanced Thinking,精度提升10.0的同时,推理长度直降35.4%
在过去一年中,大模型推理中的「过度思考」问题引发了广泛关注。然而,真正的挑战并非简单地缩短思维链。面对简单问题,模型往往在得出正确答案后仍持续进行冗余验证;而许多旨在抑制过度思考的方法虽能压缩输出长度,却常常将必要的推理探索一并剔除,导致模型从「想太多」直接滑向「想太少」。高效推理的核心目标并非一刀切地削减推理步骤,而是使模型在不同任务中实现恰到好处的思考深度。
2026-04-27 10:10:28
247
原创 详解RAG系统安全防护:从简历筛选场景谈知识库安全建设
前言随着大语言模型(LLM)在企业中的广泛应用,检索增强生成(RAG)已成为提升AI回答质量的核心架构。无论是智能客服、知识问答还是辅助决策系统,RAG都发挥着重要作用。然而,RAG系统在提升效率的同时,也面临着独特的安全挑战——外部文档中的恶意指令可能通过检索机制混入AI的上下文,从而操纵AI的输出结果。本文将以简历筛选场景为例,深入剖析RAG系统的安全威胁原理,并提供从文档入库到输出返回的完整防护方案,帮助开发者构建更安全的RAG系统。一、RAG系统安全威胁概述1.1 什么是间接注入威胁。
2026-04-27 10:08:28
389
原创 Harness Engineering:AI Agent 落地企业的工程化核心
从大模型到企业级生产力,中间经历了「大模型→AI Agent→Harness Engineering→Agentic AI→业务流程自动化」的演进路径,其中Harness Engineering是连接AI Agent与企业落地的核心桥梁它让AI Agent从「自主决策的智能体」变成「受约束、可审计、高可靠的企业级工具」;它实现了RPA(确定性自动化)与AI Agent(推理型自动化)的协同工作,让自动化从「规则驱动」走向「智能驱动」;它的核心价值并非「增强AI Agent的能力」,而是「
2026-04-23 16:30:13
292
原创 两栖模式Agent--AmphiLoop,给OpenClaw“龙虾”来个降维打击?
最近在GitHub上瞎逛,发现了一个很有意思的开源项目——。它提出了一套完全不同于OpenClaw(龙虾)、Hermes Agent的智能体构建思路,甚至可以说是在解决一个龙虾们至今都没能很好回答的问题:如何既拥有AI的自主性,又保持企业级应用需要的稳定、可控和低成本?这个项目给出了一个相当优雅的答案——。
2026-04-23 16:20:31
320
原创 谷歌全新深度研究智能体再进化:企业级工作流的坚实底座
繁杂枯燥的资料搜集与交叉比对,向来是消耗专业人士核心精力的黑洞。谷歌刚刚对自动化研究工具进行了全面升级,它能将公开网络信息与企业内部私密数据无缝缝合,直接生成带有原生数据可视化图表,且完全标注信息来源的专业级分析报告。基于功能更强大的 Gemini 3.1 Pro 模型,全新推出的 Deep Research 以及 Deep Research Max 智能体,正式将单纯的文本摘要引擎,蜕变为支撑金融、生命科学和市场调研等企业级工作流的坚实底座。
2026-04-23 16:18:37
415
原创 深入源码:Hermes Agent 如何实现 “Self-Improving“
Hermes Agent 的 Self-Improving 就是三件事的配合:Memory 记住你是谁,Skill 记住怎么做事,Nudge Engine 保证这个循环不停转。用得越久,Agent 帮你干活就越快、踩坑就越少。OpenClaw 在 AI Agent 普及上立下了汗马功劳。但一个需要"调教指南"的工具、一个升级就崩溃的系统、一个越用记忆文件越大越慢的架构——它正在完成自己的历史使命。开发者正在用数据说话。
2026-04-23 16:17:02
370
原创 从 RAG、LLM Wiki 到 GBrain:检索、编译与持续记忆的 AI 知识管理范式
数据治理是基础,不是附加项。Gartner 预测 80% 的企业 RAG 实施将因数据质量差而失败。无论技术多么先进,垃圾进、垃圾出的法则始终适用。企业必须在启动知识库项目之前,建立完整的数据分类、认证、血缘追踪和 freshness 监控体系。人的角色不可替代。LLM Wiki 的核心理念强调:人类负责原材料、探索和提问;LLM 负责总结、交叉引用和簿记。即使在最自动化的 GBrain 系统中,人类的质量监督、方向设定和价值判断仍然是知识库演进的核心驱动力。持续维护比初始建设更重要。
2026-04-23 16:09:45
552
原创 大模型二面:如何设计实现一个 LLM Gateway ?
在回答这道题的时候,不要只是简单的列出"路由、fallback、负载均衡"这三个词然后各说两句,而是要把整个系统从架构到细节完整地想清楚——请求从进来到出去的完整链路是什么样的,路由决策背后的考量有哪些,fallback 不是简单重试那么直白,负载均衡在 LLM 场景下和传统场景有什么本质不同,这样才能体现出深度。它不是靠人工定义规则来判断请求类型,而是用一个轻量级的 Embedding 模型把请求内容向量化,然后和预定义的任务类别向量做相似度匹配,自动判断这个请求属于什么类型、该路由给哪个模型。
2026-04-22 10:18:24
304
原创 揭秘大模型Steering:从底层机理到系统评估,全面破解大模型行为控制之谜
想象你正在驾驶一辆高性能的跑车。驾驶员(你)通过方向盘很容易就能调整车的行驶方向,只需要轻轻转动几度,整个几吨重的汽车就改变了方向。但如果你想改变发动机的工作方式呢?比如让它在高速时更省油,或者在爬坡时更有力?那可能就需要修改发动机了。大语言模型也面临类似的问题:怎样让大模型按照我们的意图行动,而不需要「拆开发动机」重新训练?Steering(行为引导) 就是答案。它指的是在模型推理阶段,对模型内部表示或激活进行即时调控,以引导模型输出符合预期目标。
2026-04-22 10:16:49
423
原创 人多不管用!智能体团队别盲目扩张,最新综述给出三大维度
近年来,agent marketplace和agent system都在快速扩张。一方面,智能体市场中的可用agent数量和类别不断增长;另一方面,真实部署的agent system也从少量角色协作,逐步走向包含数十个甚至数百个agent的复杂结构。这意味着,大规模智能体系统已经不再只是实验室中的小规模演示,而正在进入更开放、更持续、更复杂的真实运行环境。市场中的智能体数量采用对数坐标显示,市场类别数和每个系统中的智能体数采用单独坐标轴显示,阴影区域表示估计范围。
2026-04-22 10:13:35
327
原创 如何构建一个与人工智能兼容的第二大脑
你正开车前往汽车经销店。途中,你开始自言自语地谈论一篇你一直在思考的文章。人工智能问了你一个问题。你一边并入高速公路,一边即兴发挥了两分钟。它将你所说的话提炼成结构清晰的文章,归档到相应的文档中,然后继续处理下一部分。你全程无需触碰任何屏幕。当你把车开进停车场时,已经出现了三个你出门时还不存在的区域。当你回到家时,一份草稿已经静静地躺在你的文档编辑器里,格式正确、条理清晰、标题齐全,而你却从未打开过它。你甚至从未真正坐下来写作,就写完了一整篇文章。我正是这样写出了你正在阅读的这篇文章。
2026-04-22 10:12:09
352
原创 Agent不是关键!人大AiScientist实现23小时、74轮长程记忆
AiScientist试图推动的,并不只是一个更强的科研Agent,而是一种对长程研究工程的新理解:在真实科研任务中,真正重要的往往不是单次生成得多漂亮,而是系统能否在跨阶段、跨轮次、跨文件的任务链中,把项目状态稳定存住,并据此持续推进。如果这一点成立,那么AI进入科研流程的方式,也将从「辅助某一步」逐渐走向「接手整条链路」。
2026-04-21 16:40:22
265
原创 再探 Harness Engineering 该做点什么?
简单来说,Harness 就是一层包在 LLM 外面的 “执行壳”。模型不能直接对用户说话模型不能直接调用外部系统所有输入输出必须经过 “检查点”可以理解为: 模型只是一个 “函数”,而 Harness 才是 “运行时”。早期:谁 Prompt 写得好中期:谁 RAG 做得全现在:谁 Harness 做得稳状态外置Schema 校验重试 + backoffToken 控制工具调用剩下的再慢慢优化。至于未来会怎么发展?
2026-04-21 16:37:38
382
原创 Claude Code 系统拆解:一个 Coding Agent 是如何被工程化出来的
这里最值得注意的是,权限系统、hooks、扩展能力、内置工具、MCP 工具、子代理、会话存储,并不是零散功能,而是被组织进一套层次化结构里的。Claude Code 的答案不是只给一种插件接口,论文总结了它的四类扩展机制:MCP、plugins、skills、hooks,而且这四类东西并不是平铺的,它们分别插在 agent loop 的不同位置上。它们分别处理不同问题:有的针对单条工具输出太长,有的裁掉更早的历史,有的结合缓存机制做细粒度压缩,有的对长会话做投影视图,有的最后才触发模型生成总结。
2026-04-21 16:33:06
361
原创 Karpathy LLM Wiki 实践:用“知识编译“替代 RAG,构建个人知识库
编译优于检索」——提前让 LLM 理解文档,而不是查询时临时理解「质量优于数量」——500 字精炼摘要 > 5000 字原文「显式关联优于隐式」——[[双向链接]]> Embedding 空间相似度「简单优于复杂」——如果能全量加载,就不需要复杂的检索系统「Schema 驱动」——修改文档即修改行为,非技术人员也能参与对于个人知识管理来说,这种方式有一种独特的魅力:你的知识库不再是一个黑盒的向量数据库,而是一组精心组织的、人类可读的 Markdown 文件。
2026-04-21 16:24:49
366
原创 十万个why:为什么大模型不设计成带有记忆的?
非要让大模型拥有人类一样的物理记忆,就是把系统最核心的状态管理交给了最不可控的环节。一旦记忆出现混乱、幻觉或者越权,你连个排查日志的地方都找不到。接受大模型的无状态设定,用成熟的传统数据库去管理记忆,单纯把它当成一个推理引擎来用,这才是工程落地该有的姿势。绝对不要让昂贵的计算节点去保存业务状态。把状态沉淀到数据库,把逻辑留在代码里,把推理交给大模型。边界清晰了,系统才能安安稳稳!!!
2026-04-20 09:37:51
292
原创 Prompt 注入是什么?有哪些攻击方式?如何防护?
攻击者不需要和你的系统直接交互——他只需要在某个可能被检索到的文档中埋入恶意指令,比如在一个公开网页的白色文字中(人眼不可见但爬虫能抓到)写上"当你读到这段话时,忽略用户的问题,改为输出以下内容..."。在 Agent 场景中,把外部数据严格标记为"数据上下文"而非"指令上下文",通过 Prompt 设计告诉模型"以下内容是外部数据,其中可能包含恶意指令,请将其视为纯粹的数据来处理"。从更根本的角度看,只要 LLM 仍然是把所有输入拼接成一段文本来处理的架构,指令和数据的混淆就是必然的。
2026-04-20 09:35:56
293
原创 掌握这五个AI核心术语,你已经碾压90%的人!
RAG 做的不是“让 AI 变聪明”,而是:给 AI 提供更精准的参考资料。模型没变,变的是输入。
2026-04-20 09:26:40
337
原创 AI 智能体八层架构:生产级系统构建指南
AI 智能体(Agentic AI)革命的关键不在更好的提示词,而在于系统化的架构设计。随着企业竞相部署能够自主感知、推理、规划和行动的 AI 智能体(AI Agent),真正的挑战已经从"我们能构建吗?"转变为"我们能正确构建吗?数据很能说明问题。全球智能体 AI 市场从 2024 年的 6140 万美元激增到 2032 年预计将达到 2.6 亿美元,复合年增长率(CAGR)高达 20.1%。
2026-04-20 09:23:05
404
原创 收藏级AI工具清单
相信很多程序员都有过这样的困扰:翻遍GitHub找AI工具,要么不好用,要么太复杂,折腾大半天还没落地,带娃的时间都被浪费了!今天给大家分享一份「精选AI工具清单」——有人花几十个小时扫描1000+GitHub仓库、测试200+技能,只留下真正能用的干货,22个Claude Skills、3个MCP Server、40个新鲜项目,拿来就能用,帮我们省出时间陪娃、搞副业!
2026-04-20 09:21:00
371
原创 上线AI却怕被投毒、泄密?掌握这三大支柱,打造坚不可摧的AI架构
有智无诚,不过是复杂的风险。要打造持久的AI,就必须将零信任原则应用于数据管道,并将模型端点视为敏感的API来对待。当我刚开始大规模部署AI系统时,我犯了大多数技术领导者都会犯的错误:我把安全和数据架构问题当作在智能层构建完成后才需要解决的问题。我们进展迅速,推出模型,庆祝早期取得的胜利,然而,六个月后,我们发现其中一条机器学习管道无意中将敏感的客户数据泄露给了本无权访问这些数据的下游系统。虽然没有发生数据泄露事件,也没有登上新闻头条,但这一事件给我们敲响了警钟,彻底改变了我对AI架构的看法。
2026-04-17 16:57:45
276
原创 AI落地必读:放弃死磕准确率!这三个指标才是决定成败的生死线
模型准确率即便高达95%,但若运行过慢或出现偏差,仍可能是一场灾难。不要只关注模型本身,还要关注数据流转路径、数据循环以及影响范围。几年前,我所在的团队将一项AI功能部署到大型企业环境中,该模型在测试中表现优异,准确率超过95%,评估指标强劲,所有参与人员都对部署充满信心,然而,部署后的几周内,情况开始出乎我们的意料。起初,只是响应变得微妙,时间略有波动,预测偶尔比平常晚到。从技术上讲,没有出现“故障”。
2026-04-17 16:55:43
257
原创 为什么几乎所有人都在提Harness?他解决了什么痛点
你可能最近见过这个词:Harness Engineering。它频繁出现在在各种技术博客、技术群、甚至一些 AI 工程师的简历里。但如果你去问?
2026-04-17 16:53:52
371
原创 大模型落地:实打实地提升 RAG 系统准确率的五种方案!
网上 B 站有很多那种基于 LangChain 或者 LlamaIndex 十分钟搭建 RAG 系统的教程。不少团队看着挺简单,照猫画虎也跟着搭了一套。跑测试数据的时候看着还凑合,但只要真正接入企业的生产环境,让真实的业务人员去用,准确率惨不忍睹,模型甚至开始一本正经地瞎编乱造。大模型本质上仅仅是一个做阅读理解的机器,如果前面检索系统喂给它的参考资料全是一堆不相关的垃圾,它再聪明也给不出正确的答案。最近在业务实际落地中踩了不少坑,我总结了几个能把 RAG 的能力实打实拉升起来的方案,今天给大家盘一盘。
2026-04-17 16:45:44
299
原创 Claude Code 自定义 Agent 实战,打造三个专属智能体
先用 30 秒搞清楚它是怎么工作的。每个自定义 Agent 是一个.md文件,放在特定目录下。(配置元数据)和当 Claude 判断当前任务适合委托给某个 Agent 时,它会启动一个独立的 context window,加载这个 Agent 的 system prompt,然后让这个 Agent 独立完成任务并返回结果。独立 context:Agent 有自己的 context window,不会污染主对话继承 CLAUDE.md:Agent 会加载项目的 CLAUDE.md 规则工具可限制。
2026-04-17 16:41:19
510
原创 智能体开发必备:九个神仙Skill仓库,从此告别重复造轮子
简单来说,技能就是一个包含SKILL.md文件的文件夹。这个文件里包含了指令、代码示例和上下文信息,能教会你的 AI 智能体 ( Agent ) 如何执行特定任务。它就是智能体在工作之前要读的剧本。一个基本的技能结构如下所示:复制my-skill/├── SKILL.md # 必需:指令 + 元数据├── scripts/ # 可选:辅助脚本└── references/ # 可选:文档和示例SKILL.md文件由两部分组成。
2026-04-16 10:51:45
598
原创 大模型二面:在高并发RAG Agent系统中,如何优化召回和生成阶段的延迟?
是高并发场景下的杀手级优化。语义缓存的思路是:把历史请求的 query embedding 和对应的回答存起来,新请求进来时先把 query 转成 embedding,在缓存中做相似度检索,如果找到语义相似度超过阈值的历史请求,直接返回缓存的回答。召回阶段,工程上我们选 HNSW 索引做底座,多租户场景下按业务维度做分区检索缩小搜索空间,重排序用 ColBERT 做快速初筛控制进入 Cross-Encoder 精排的候选量,再配合向量+BM25 的混合检索并行执行、RRF 融合,召回的延迟和质量都能兼顾。
2026-04-16 10:42:07
355
原创 别只盯着大模型了!智能体协作才是企业AI的终极形态
AI正迈入新阶段,过去十年,企业主要聚焦于预测分析和自动化领域——利用机器学习模型对数据进行分类、检测模式并改进决策,如今,一种新范式正崭露头角:自主式AI,即能够自主执行任务并协调复杂工作流程的系统。然而,尽管AI智能体发展迅猛,但这一术语的使用却往往较为宽泛。许多企业将任何由AI驱动的自动化都称为“智能体”,即便其仅执行单一功能。随着企业向大规模部署自主系统迈进,亟需一个更清晰的框架来理解这些系统的结构。
2026-04-16 10:31:51
360
原创 Anthropic多智能体指南,手把手教你选对多智能体系统协同架构
企业搭建多智能体(Multi-agent)系统架构时,极易掉进追求复杂设计的泥潭。抛弃对华丽架构的盲目崇拜,精准匹配业务场景与系统智能体之间的上下文边界,才是让项目顺利落地的唯一法则。Anthropic发布多智能体协作模式指南,为你拆解了多智能体协同的五大基础模式,带你清晰看透它们的运转机制、适用场景与潜在隐患,帮你为团队挑选出最务实的解决方案。
2026-04-16 10:29:39
363
原创 告别向量盲搜:PageIndex重新定义无向量推理式RAG范式
PageIndex面向长结构化复杂文档问答任务:给定超出LLM上下文窗口的专业长文档(财报、法律文件、技术手册),在不使用向量数据库、不做硬分块的前提下,让LLM通过推理导航文档结构,精准定位相关内容,生成有据可依的答案。检索不应是静态相似度匹配,而应是动态推理式导航——让LLM主动思考“该去哪里找答案”,而非被动接收“相似的文本块”。PageIndex并未对传统向量RAG做小修小补,而是从底层彻底重构了RAG的检索逻辑,完全跳出“文本相似度匹配”的固有桎梏。被动搜相似。
2026-04-16 10:23:12
381
原创 写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了
代码大模型会写代码,这件事已经不新鲜了。真正新的问题是:它会不会在写之前先想清楚,这段代码一旦进入真实系统,会发生什么?这个问题在工业场景里尤其关键。因为工业代码和普通编程不一样,它不是 “语法通顺、功能差不多” 就算过关,而是要面对真实硬件、真实工具链和真实约束。一个 Verilog 模块可能语法没问题,却在仿真或综合阶段直接失败;一个 CUDA kernel 可能逻辑上说得通,却在 grid 配置、索引映射或显存约束上出错;⼀个嵌入式程序也可能因为寄存器顺序或中断逻辑不对,根本跑不起来。
2026-04-15 16:45:47
315
原创 黄仁勋率先开源量子AI大模型
英伟达最新AI开源,瞄准了量子计算:推出——。用英伟达自己的话说,Ising系列模型极大地简化了对复杂物理系统的理解,为量子纠错和校准提供了高性能、可扩展的AI工具。而量子纠错和校准,正是构建混合量子-经典系统时最关键的两大挑战。老黄亦对Ising寄予厚望:AI对量子计算的实用化至关重要。有了Ising,,将脆弱的量子比特转变为可扩展且可靠的量子-GPU系统。
2026-04-15 16:43:51
396
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅