- 博客(474)
- 资源 (6)
- 收藏
- 关注
原创 Claude Code实现原理分析-架构设计
Claude Code是一个完整的AI Agent运行时框架,具备终端交互、多Agent协作和智能编程能力。其分层架构包括接入层、交互控制层、核心引擎层等6个层级,采用严格自上而下的依赖关系。核心模块包括多入口启动系统、负责LLM调用的QueryEngine引擎,以及基于接口驱动的插件化工具系统。该系统支持40+可组合工具、多Agent并行编排、持久化记忆等功能,采用TypeScript+Bun技术栈实现,展现了Anthropic在AI编程工具领域的创新设计。
2026-04-03 07:33:56
631
原创 Agent开发范式:任意位置触发-构建无边界的智能体交互
智能体开发新范式:突破界面限制的无边界交互 本文提出"任意位置触发"的智能体开发理念,强调打破传统聊天界面的局限。智能体应具备事件驱动能力,通过Webhooks和API标准化入口,实现与各类SaaS工具的深度集成。关键点包括:1)采用事件驱动架构,使智能体能响应多种外部信号;2)通过Webhook和API优先设计实现标准化接入;3)支持异步处理和长程任务,具备状态持久化和上下文重构能力。这种无边界集成模式使智能体转变为"可调用的计算资源",推动从"人找工具&
2026-03-24 07:06:02
340
原创 提升 LLM 应用质量:promptfoo 自动化测试框架全解析
promptfoo是一个专门为提示词工程设计的测试工具,支持 CLI 命令行和库的使用方式。它核心关注的是“评估(Evaluation)”,即通过系统化的对比来判断哪个提示词或模型更好。开发者的痛点通常开发者在调整提示词后,只能通过手动测试几条样本来“感觉”效果,这容易导致逻辑回归或质量退化。确定性缺失:LLM的输出具有随机性,仅凭几次手动测试无法代表真实表现。评估成本高:手动对比不同模型(如GP-4与laud3)或不同提示词版本的优劣极其耗时。
2026-03-23 07:21:51
637
原创 Agent设计方式-工具调用:从自然语言到工具调用的桥梁
本文探讨了智能体(Agent)开发中自然语言到工具调用的转化机制。工具调用是智能体影响现实世界的核心能力,现代模型已内置对结构化指令(如JSON)的支持。实现高效转化的关键在于:1)使用JSON Schema提供参数规范;2)编写清晰的工具描述作为操作指南;3)建立错误处理与反馈机制,包括模型自我修复和人工确认高风险操作。这种结构化交互提升了执行成功率,同时确保了系统的可观测性和安全性。
2026-03-22 18:48:50
347
原创 AGENTS.md -- 为 AI Coding Agent准备的 README
摘要: AGENTS.md是专为AI编程智能体设计的项目说明文件,旨在提供高效协作指南。相比人类阅读的README.md,它更聚焦于执行指令,包含项目设置、代码规范和安全约束等关键信息,显著提升AI的工作效率。目前已有6万多个开源项目采用该标准,建议开发者手动维护以确保最佳效果。随着AI深度参与开发流程,AGENTS.md正成为构建“AI友好”代码环境的重要工具。(149字)
2026-03-22 10:26:35
1221
原创 深度解析:从“氛围编程”到“氛围规格说明”(Vibe Speccing)
《VibeSpeccing:从氛围编程到声明式开发的范式转变》摘要 在AI编程工具普及的背景下,开发者面临从"写代码"到"描述需求"的能力转型。本文提出VibeSpeccing新范式,通过构建高完整性规格文档(Spec)驱动AI开发。相比传统VibeCoding,该方法能有效解决项目复杂度上升时的AI幻觉和逻辑冲突问题。核心特征包括:建立真相来源文档、提供结构化上下文、保持动态更新。作者以Luminos项目为例,展示了如何通过详细规格说明指导AI精准生成代码。当前技术
2026-02-07 08:18:11
404
原创 深度解析:“氛围编程”的“最后一公里”难题
摘要:氛围编程(VibeCoding)通过AI助手快速构建原型,显著提升开发效率。然而在项目后期(80%-90%进度)时,"最后一公里"问题显现:代码架构脆弱、上下文膨胀导致逻辑混乱、深层Bug难以排查。AI编程消灭了传统开发中的"中间层"技能培养,使开发者缺乏底层掌控力。解决方案是采用混合模式:主动代码评审、坚持模块化原则、引入自动化验证。虽然AI降低了开发门槛,但软件工程的严谨性和人类作为"总设计师"的角色仍不可替代。(149字)
2026-02-07 08:14:47
350
原创 什么是“氛围编程”(Vibe Coding)及其对开发的意义
摘要:氛围编程(VibeCoding)是AI时代的新型开发范式,开发者通过与AI交互快速构建软件,将重心从语法细节转向意图传达。这一概念由Andrej Karpathy提出,核心在于沟通意图、快速验证和迭代思维。AI原生编辑器如Cursor的兴起加速了这一趋势,但同时也引发对技术深度、代码质量和维护性的讨论。氛围编程标志着软件开发从"如何实现"向"实现什么"的转变,既降低了创新门槛,也对开发者提出了驾驭AI与底层能力的双重要求。(149字)
2026-02-07 08:12:25
493
原创 编码Agent上下文管理:让AI驾驭复杂代码库
本文探讨了AI编程工具在复杂代码库中的效率困境,提出了"高级上下文工程"解决方案,特别是"频繁有意压缩"(FIC)技术。该技术通过结构化提炼开发过程中的信息,优化上下文窗口的四个维度:正确性、完整性、大小和轨迹。同时引入子Agent机制来管理噪音信息,保持主Agent上下文聚焦。实践表明,在30万行Rust代码库中,采用该技术仅用7小时就完成了预估3-5天的工作量。研究表明,通过精细的上下文管理而非依赖更智能的模型,可显著提升AI在大型代码库中的工作效率。
2025-11-26 07:42:21
846
原创 PeerLLM产品分析:去中心化AI时代的新社会契约
摘要 PeerLLM是一款去中心化AI网络产品,旨在解决当前AI发展中的集中化风险和社会经济问题。其核心架构由主机(个人电脑)、协调器网络和消费者组成,形成一个点对点AI计算市场。产品特点包括:1)将闲置算力转化为被动收入来源;2)保护数据主权和抗审查;3)建立涵盖计算、数据和模型的多维交易市场。通过去中心化设计,PeerLLM希望实现AI权力的重新分配,让普通用户也能参与并受益于AI经济。与传统中心化算力平台不同,PeerLLM更注重公平性、个体赋权而非单纯效率优化。
2025-11-09 09:49:13
1118
原创 Claude Agent Skills:一种基于 Prompt 扩展的元工具架构
**摘要:**Claude Agent Skills 是一种基于 Prompt 的元工具架构,通过指令注入扩展大型语言模型(LLM)功能。与传统工具不同,Skills 不运行代码,而是通过修改会话上下文和执行上下文,以声明式方式指导模型解决复杂问题。每个 Skill 包含核心 Markdown 文件(SKILL.md)和资源目录,遵循渐进式披露原则,按需加载指令和脚本。这种设计将 AI 推理与工具操作结合,为构建可信赖的生产级智能 Agent 系统奠定基础。
2025-11-08 07:55:49
1235
原创 Aardvark:用 GPT-5 赋能代码安全防御的智能体研究员
Aardvark 是一个自主 AI 智能体,其功能是像人类安全研究员一样思考,并能大规模运作。连续分析源代码仓库,尤其是对提交(Commit)级别的代码变更进行扫描。评估所发现漏洞的实际可利用程度,并根据严重性进行优先级排序。对发现的漏洞进行分步解释,并对代码进行注释,方便人工审查。集成,为每个漏洞提供一个经过 Aardvark 扫描的、可供人工一键审查和应用的补丁。除了安全漏洞,在测试中发现 Aardvark 还能揭示逻辑缺陷、不完整的修复和隐私问题。与GitHub。
2025-11-04 07:07:09
1239
原创 Anthropic如何高效地进行Agent上下文工程
本文探讨了AI Agent开发从提示词工程向上下文工程的演进。Anthropic团队提出LLM存在"注意力预算有限"和"上下文衰减"的核心约束,强调上下文是珍贵资源。高效上下文工程需聚焦三个要素:精简的系统提示词、功能明晰的工具集和规范化的few-shot示例。文章建议采用"即时探索"策略替代传统RAG,并提出三种长周期任务处理技术(压缩、结构化笔记和子Agent架构)。最终指出开发者角色应向"高效上下文策展人"转变,秉持&qu
2025-11-03 07:32:26
952
原创 Pipelex:自动构建可执行的AI工作流
Pipelex 是一个开源的 Python 框架,专为构建可重复、高可靠性的AI 工作流程而设计。它摒弃了将所有逻辑都塞进一个复杂提示词的做法,而是倡导将复杂的 AI 任务分解成一系列重点明确的步骤,即“管道”(Pipes)。每个管道只负责一个清晰的转换或处理,从而极大地提高了整个工作流的可靠性和可维护性。文件是使用Pipelex 语言(PLX)编写的,它清晰地定义了 AI 工作流的输入、输出和执行逻辑。一个典型的.plxDomain (领域)
2025-11-02 09:08:47
1007
原创 Chonkie:RAG 应用的开源、极速分块利器
Chonkie是一个轻量级开源库,专注于简化RAG(检索增强生成)应用的数据处理流程。其核心特性包括快速分块(CHONK)、嵌入、精炼和存储功能,支持多种分块算法、嵌入模型和向量数据库。Chonkie强调简单易用、高效快速和隐私保护,所有处理均在本地完成。该库通过优化技术(如并行处理、缓存和静态嵌入)实现高速文档处理,适用于Python、JavaScript等多种使用场景。其开源MIT许可和经过实战验证的算法使其成为开发者构建RAG管道的理想选择。
2025-10-30 07:34:05
885
原创 数字身份危机:AI智能体与氛围编码如何重塑传统安全
数字世界正面临一场由AI智能体、机器身份激增和"氛围编码"引发的身份危机。传统基于人类用户的身份验证机制被颠覆,静态凭证难以应对动态AI行为,开发速度与安全的矛盾加剧。新范式需从静态身份转向动态行为信任,结合短期凭证、行为分析和情境感知构建信任网络。未来的安全必须融合密码学、上下文和行为信号,在AI主导的时代重构身份管理规则。
2025-10-29 08:14:34
1040
原创 AI推理框架的连续批处理(Continuous)与动态批处理(dynamic batching)
本文介绍了AI推理框架中的批处理技术,重点分析连续批处理和动态批处理的原理与应用。静态批处理适用于批量任务,但会增加延迟;动态批处理通过设置批处理大小和等待窗口,更适合图像生成等实时场景;而连续批处理在token级别处理请求,能显著提升LLM推理的吞吐量,避免GPU资源闲置。不同批处理方法需根据模型类型和业务需求选择,连续批处理是LLM部署的最佳选择,而动态批处理更适合大多数其他生成模型。
2025-08-20 08:50:40
1714
原创 LangGraph实战:MCP + SSE实现远程调用MCP Server
本文介绍了在LangGraph中实现与MCP Server交互的两种方式:本地stdio调用和远程SSE调用。通过FastMCP框架分别构建了利息计算服务和Shell命令执行服务,并展示了如何通过MultiServerMCPClient同时集成这两种服务。使用create_react_agent创建支持多种工具的智能代理,实现了复合利息查询、利息计算和系统命令执行等功能。该方案为混合本地和远程服务调用提供了灵活的实现范例。
2025-07-28 20:28:12
979
原创 LangGraph实战:整合MCP(本地模式
本文介绍在langgraph 的Agent中,使用MCP Client连接和调用MCP server的工具(函数),实现Agent的各个步骤的功能。本文使用stdio模式,没有使用sse协议。
2025-07-28 20:27:22
741
原创 构建高效AI Agent的关键:Manus团队揭秘上下文工程(Context Engineering)的最佳实践
由于目前大模型训练和微调的代价很大(时间成本和资本),Manus团队并没有选择使用这样的方式来构建基础模型,而是通过优化上下文工程(context engineering)来构建高效的Agent系统。这样,真正决定Agent表现的关键就并非仅仅是模型能力,而是**上下文工程(Context Engineering)**的设计。在这篇文章中,Manus联合创始人季逸超(Peak Ji)分享了团队在构建AI Agent过程中积累的六大核心经验。这些经验涵盖了从KV缓存优化、工具管理策略,到文件系统的利用、注
2025-07-20 18:26:13
1322
原创 数据库询问RAG框架Vanna的总体架构
总的来说Vanna是根据RAG构建了自己的后台架构。通过和向量库的知识库检索相关上下文知识,可以让生成的SQL语句更加准确。Vanna提供了正确知识的反馈机制,这可以说是一种自我学习的过程,这样可以让后续的回答更加准确。另外,在整个过程中加入了人工审核的过程,这在大模型的精准度没有达到一定程度之前,是非常有必要的。Vanna还提供多种使用方式(有前端,或没有前端),这样可以让用户使用起来更加灵活。
2025-07-16 21:26:35
1171
原创 AI领域新趋势:从提示(Prompt)工程到上下文(Context)工程
上下文工程是一种构建动态系统的过程,目的是为LLM提供正确格式的信息和工具,使其能够合理地完成任务。这与传统的提示工程有着本质的区别。提示工程主要关注于如何巧妙地措辞提示,以期从LLM中获得更好的答案。然而,随着应用的复杂性不断增加,人们逐渐意识到,向AI提供完整且结构化的上下文比任何巧妙的措辞都更为重要。上下文工程是一个系统,而不是简单的字符串。它是一个在主LLM调用之前运行的系统,能够从多个来源获取上下文,包括应用开发者、用户、之前的交互、工具调用或其他外部数据。
2025-07-04 21:31:10
909
原创 qodo如何构建大型代码仓库的RAG?
在当今软件开发领域,代码库的规模日益庞大,动辄达到数百万甚至数亿行代码。这给开发者带来了巨大的挑战,尤其是在代码搜索和理解方面。如何在海量代码中快速准确地找到所需内容,成为了提升开发效率的关键。Augment Code团队通过引入量化向量搜索技术,成功地将代码搜索速度提高了40%,为解决这一难题提供了新的思路和方法。
2025-07-01 07:39:44
1270
原创 Augment Code-如何为1亿+行代码库提速40%的代码搜索:量化向量搜索的妙用
在当今软件开发领域,代码库的规模日益庞大,动辄达到数百万甚至数亿行代码。这给开发者带来了巨大的挑战,尤其是在代码搜索和理解方面。如何在海量代码中快速准确地找到所需内容,成为了提升开发效率的关键。Augment Code团队通过引入量化向量搜索技术,成功地将代码搜索速度提高了40%,为解决这一难题提供了新的思路和方法。
2025-06-29 21:24:24
851
原创 Augment近实时代码库索引构建机制
Augment是一个类似于Cursor的代码助手,有人说比Cursor还好用。是否超过Cursor我们暂且不论,我们来看一下它是如何实现近实时索引构建的。
2025-06-26 18:39:10
1841
原创 Continue索引实现机制
Continue是一个开源的AI代码助手,本文介绍Continue索引的实现机制。Continue采用标签系统与内容寻址相结合的方式,确保无需重复索引。当您切换分支时,Continue仅会重新索引新修改且未被缓存的文件。通过实现CodebaseIndex类,该系统可应用于多种不同的"产物"(artifact)。
2025-06-25 21:22:00
1079
原创 构建高效智能体系统:从简单到复杂,找到最适合你的解决方案
在实际业务场景中构建智能体,最成功的实现往往不是使用复杂的框架或专用库,而是通过简单、可组合的模式来实现的。本文总结了我们在客户合作和自身开发过程中获得的经验,并为开发者提供实用的建议,帮助他们构建有效的智能体系统。
2025-06-21 09:58:13
891
原创 Vibe Coding 很爽?小心你的代码变成‘技术债’!
想象一下,像写作文一样来写软件,这可能吗?这会是一种什么样的体验?这就是最近讨论的一种新的编码方式,称之为“vibe coding”。你完全沉浸于氛围,拥抱指数级增长的产出,甚至忘记代码的存在。
2025-06-15 10:16:08
1422
原创 Cursor如何快速索引代码库
在很多代码助手软件中,代码库索引的构建的流程其实都大体相似。有些在客户端完成代码索引的构建,有些通过离线任务在后端服务中完成(用户体验会好一些)。和文本索引库(RAG知识库)的构建不同,代码索引库的构建要复杂很多,不仅要对文本进行切割,还需要考虑代码结构中不同元素的代码结构,同时还需要考虑各个元素之间的关系。另外,由于嵌入模型对token的限制,切割后的代码片段不能大于这个最大的限制。所以,既要考虑代码的语法完整性和代码之间的关系,还要考虑代码片段不能太长。
2025-06-15 09:42:58
1081
原创 Cursor实现原理初探总结
Cursor是最受欢迎的AI代码编辑器之一。最近newsletter.pragmaticengineer.com上发表了一篇和Cursor工程访谈的记录文章。该文章访谈了Cursor的开发者,并询问了很多Cursor的具体实现原理。这里对这篇文章的核心内容进行了总结。
2025-06-14 06:48:15
2245
原创 Langgraph实战-自省式RAG: Self-RAG
传统 LLM 仅依赖内部参数化知识生成回答,容易产生事实性错误(hallucination)。即使结合检索增强生成(RAG),也存在两个问题:(1)盲目检索:无论是否需要检索,都固定检索一定数量的文档,可能引入无关信息。(2)机械整合:直接拼接检索到的内容,可能降低生成结果的流畅性或实用性。现有 RAG 也存在很多的不足,例如:无法动态判断何时需要检索、检索内容是否相关,导致生成质量不稳定。
2025-06-08 20:14:02
1585
原创 Langgraph实战--自定义embeding
在Langgraph中我想使用第三方的embeding接口来实现文本的embeding。但目前langchain只提供了两个类,一个是AzureOpenAIEmbeddings,一个是:OpenAIEmbeddings。通过ChatOpenAI无法使用第三方的接口,例如:硅基流平台的接口。只能自己封装一个类,继承Embeding接口,从而实现整合第三方平台Embending API的能力。
2025-06-07 21:23:43
804
原创 Langgraph实战--在Agent中加入人工反馈
通过对AI输出中加入人类的反馈已经,能够让AI更好的输出符合预期的内容。同时,通过人工的审核,可以更好的保证输出内容的安全性和准确性。
2025-06-06 19:38:34
507
原创 大吞吐量的推理引擎:Tokasaurus
Tokasaurus一款针对吞吐量密集型工作负载进行了优化的全新 LLM 推断引擎。对于小型模型,Tokasaurus 可利用极低的 CPU 开销和动态 Hydragen 分组来利用共享前缀。
2025-06-06 08:21:22
1132
原创 Github Copilot新特性:Copilot Spaces-成为某个主题的专家
Copilot的Spaces功能提供了一个能够把各种材料集中起来的知识库。通过这些材料让copilot能够更加深入的理解代码,并能够更加准确和专业地回答用户提示出的各种问题。另外,Spaces能够保持和代码仓库实时同步,让Copilot能够及时获取到最新的知识。另外,Spaces分享的功能也让团队之间的知识分享更加简单。
2025-06-05 21:02:11
1597
原创 LLM多平台统一调用系统-LiteLLM概述
在当今快速发展的AI领域,大语言模型(LLM)已成为技术创新的核心驱动力。然而,随着市场上涌现出越来越多的LLM提供商(如OpenAI、Anthropic、Google Gemini、AWS Bedrock等),开发者面临着一个日益复杂的问题:每个平台都有自己独特的API接口、认证方式和响应格式,这使得在不同模型间切换变得异常困难且维护成本高昂。LiteLLM应运而生——这是一个开源工具,旨在通过统一的OpenAI格式接口,简化对多种LLM服务的调用与管理。本文将全面介绍LiteLLM的核心功能、使用场景及
2025-05-25 20:12:24
1343
原创 LLM基础-什么是大模型推理(LLM Inferencing)
和传统的机器学习模型类似,大模型也可以分为:模型训练和模型推理两个过程。模型训练就是给定的数据和算法训练出一个模型(一堆文件,包括:模型权重、配置等),然后就可以使用该模型来进行预测或分类等操作。模型推理(Model inference)是使用已训练的机器学习模型根据新的输入数据生成预测的过程。
2025-05-25 17:57:50
1376
原创 Langgraph实战-多Agent-主副Agent协同
如果单个Agent需要专门从事多个领域的工作或管理许多工具,它可能会很吃力。为了解决这个问题,你可以将Agent分解成更小的、独立的Agent,并将它们组合成一个多Agent系统。在多Agent系统中,Agent之间需要相互通信。它们通过 “交接”(handoffs)进行通信。“交接 ”是一种描述将控制权交给哪个Agent以及向该Agent发送有效载荷的基本要素。
2025-05-21 07:30:17
1332
原创 DoomArena:AI 智能体安全测试的新框架
在人工智能(AI)智能体(Agent)技术快速发展的今天,越来越多的企业和研究机构开始将AI智能体应用于自动化任务中,例如网页浏览、工具调用和客户服务等。然而,随着智能体的广泛应用,其安全性问题也日益凸显。恶意攻击者可能通过多种方式利用智能体的漏洞,例如数据泄露、权限提升和未经授权的金融交易等。为了应对这些挑战,ServiceNow Research和华盛顿大学的研究团队开发了**DoomArena**——一个模块化、可配置、即插即用的AI智能体安全测试框架。
2025-05-07 07:58:02
1144
原创 dify实现分析-agent-Agent的类设计
本文分析了Dify的Agent设计框架。分析类Dify Agent相关的各个类的实现和关系。并对各个类的功能进行类分析。
2025-05-06 08:44:07
1438
unix network programing
2009-03-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅