- 博客(723)
- 收藏
- 关注
原创 从“实习生“到“资深工程师“:Anthropic如何重塑AI Agent工具使用方式
文章介绍了Anthropic最新发布的三个Beta功能:Tool Search Tool、Programmatic Tool Calling和Tool Use Examples,分别解决AI Agent工具选择、执行效率和参数准确性问题。这些功能通过按需加载工具定义、允许AI编写代码批量处理数据、提供具体使用示例等方式,显著降低了token消耗并提升了准确率。这些创新标志着AI Agent开发正从"Prompt Engineering"向真正的"Software Engineering"转变,让AI更像"资
2025-12-10 17:32:16
533
原创 LoRA技术:大模型微调成本降低96%,小白也能学会的省钱技巧
LoRA技术通过矩阵分解将大模型微调参数量减少96%以上,大幅降低显存和训练成本。它将微调本质理解为学习参数改动量Δ,用两个小矩阵近似表示大矩阵,既保留模型性能又降低资源需求。LoRA特别适合资源有限的个人开发者和小团队,支持"可插拔式技能包"快速切换不同任务能力,使大模型微调不再是大型企业的专利。
2025-12-10 17:31:23
373
原创 Google Gemini 3.0 Pro 学生优惠一年教程
谷歌账号,这是谷歌的AI,不用多说2. 学生身份,学生优惠,肯定要给“学生”嘛3. visa、mastercard等支付方式,他只是给你一年免费试用,到期后就是原价了,跟我们平常的自动续费类似4. 网络,这个就是废话了
2025-12-09 10:16:25
685
原创 LLM、RAG 和 AI Agent 之间的区别
LLM、RAG 和 AI Agent 三者不是竞争关系,它们是不同技术层面的实现,协同工作以实现更强大的 AI 应用。
2025-12-09 10:12:59
498
原创 提示词领航员:从零开始打造AI协作新体验,小白也能轻松掌握的大模型提示词秘籍
"提示词领航员"是升级版的AI提示词生成工具,通过"目标对齐-计划制定-反馈优化"三步骤,实现AI与人类高效协作。该工具首先与用户确认最终目标,然后AI动态制定计划,最后产出提示词并接收人类反馈。文章提供了完整使用指南和代码,强调创新不必颠覆,只要流程简化、进步即为创新,适合小白和程序员学习大模型提示词技巧。
2025-12-06 18:48:21
935
原创 AI工作流框架怎么选?一篇搞定Dify、Coze和n8n
文章介绍了三种主流AI工作流框架:Dify适合企业级AI开发,需技术团队操作;Coze适合快速创建聊天机器人,无需技术背景;n8n专注于软件自动化流程,提高工作效率。这些框架本质是可视化DAG编排+零/低代码封装+及时执行的技术组合。根据不同需求和用户群体,可选择最适合的工作流框架开发AI应用或自动化流程。
2025-12-06 18:47:21
794
原创 零基础搭建本地AI知识库:显卡选择+模型部署+RAG实现一站式指南
本文是一份面向个人用户和中小企业的零代码本地知识库搭建教程,介绍了"大语言模型+企业知识+RAG"的核心架构。推荐了Qwen3和DeepSeek两款适合中文场景的开源模型,并详细指导了NVIDIA 40/50系列显卡的选择。通过Ollama或LM Studio等工具无需编程即可部署模型,结合Open WebUI或Dify构建知识库,最终实现安全、可控的本地智能问答系统,让企业文档"活"起来。
2025-11-29 10:48:58
882
原创 三大大模型微调技术对比:LoRA vs AdaLoRA vs QLoRA,让你的AI训练效率提升10倍
文章详解三种大模型参数高效微调技术:LoRA通过低秩矩阵分解减少可训练参数;QLoRA引入4位量化技术进一步降低内存需求;AdaLoRA动态调整低秩矩阵秩以适应不同任务。这些方法显著降低资源消耗,同时保持模型性能,使个人开发者在有限硬件条件下高效微调大模型。
2025-11-29 10:48:01
1018
原创 一文掌握RRF:提升大模型RAG检索质量的简单方法
文章详细介绍了检索增强生成(RAG)系统中的倒数排序融合(RRF)技术。RRF是一种简单而强大的算法,通过融合多个检索结果的排名信息,无需复杂的分数归一化即可提升检索质量。文章解释了RRF的工作原理、核心公式及应用场景,包括混合检索、多查询检索和多模态检索,并提供了Python实现代码和最佳实践建议,帮助开发者构建更高质量的RAG系统。
2025-11-28 14:21:49
518
原创 从零构建ReAct Agent:不依赖LangChain,理解大模型工作原理
文章介绍了从零开始手写的精简ReAct模式Agent框架,通过解析感知、思考、行动和执行四个核心步骤,帮助读者理解大模型如何通过提示词工程和Python逻辑实现智能行为。文章提供了完整Python代码实现,展示了意图理解、规划能力和工具调用的关键实现方法,并介绍了如何将其扩展为真实AI应用。该框架适合学习大模型底层原理和实践开发。
2025-11-28 14:20:47
390
原创 LoRA技术详解:让大模型微调变得如此简单,小白也能轻松上手!
LoRA是参数高效微调技术,通过冻结原始参数并插入低秩旁路来训练少量参数。它解决了大模型微调的高计算成本问题,大幅降低显存需求(从TB到GB),可训练参数不到1%,性能与全参数微调相当。LoRA已成为大模型平民化的关键技术,使中小企业和个人开发者也能基于大模型开发垂直应用。
2025-11-27 13:44:04
517
原创 大模型智能体开发全解析:Agent与Workflow的选择与实践
文章深入解析了大模型Agent与Workflow的区别与选择,揭示了Agent本质上是"大模型+循环"的实现机制,通过工具调用和状态管理实现动态决策。文章详细介绍了Agent的实现原理、生产环境应用考量、多智能体设计,以及何时选择Agent而非Workflow的实践指南,为开发者提供了从理论到实践的全面指导。
2025-11-27 13:43:10
702
原创 Agent 架构核心:如何设计意图识别与查询分发系统?
在构建智能体或 RAG 系统时,我们经常面临一个核心挑战:**用户的自然语言输入与系统的执行逻辑之间存在巨大的鸿沟。**用户说:“我电脑连不上网了。”系统如果直接检索:“电脑连不上网”,可能会匹配到一堆无关的维修广告。
2025-11-26 13:46:49
932
原创 入门科普:什么是 LLM 大语言模型?
如果问什么是大语言模型,看这个视频之前,我估计会一时语塞,大语言模型就是大语言模型。看完 Andrej Karpathy 的 Deep Dive into LLMs like ChatGPT,会有更深的体会。
2025-11-26 13:45:22
1289
原创 零代码实现!用RAGFlow+GLM-4-FLASH搭建专属AI知识库,解决工程文档查询难题
本文详细介绍了如何使用RAGFlow和GLM-4-FLASH免费API搭建专属AI知识库,解决工程文档查询难题。教程按前期准备、Docker安装、RAGFlow配置、API获取与接入步骤展开,包含硬件要求、环境搭建等详细内容,特别标注了新手要点和避坑提醒。零代码基础即可操作,让AI精准解答工程文档问题,适合工程领域技术人员收藏学习。
2025-11-25 15:20:05
663
原创 大模型智能系统构建:Workflow与Agent的精准区分与实战指南
文章详细区分了大模型中的Workflow与Agent概念:Workflow是代码预设路径的流程,Agent是由LLM自主决定执行过程的系统。文章提出构建智能体的三大原则:优先解决问题、最小化设计和保持可解释性。同时介绍了Workflow的四种类型(增强型LLM、提示链、路由式、并行式)和Agent的特点,为开发者提供了技术选型的实用指导。
2025-11-25 15:18:23
381
原创 大模型部署完全指南:从实验到价值转化的关键一步,程序员必收藏!
模型部署是将机器学习模型从实验转化为实际价值的关键环节,往往被低估其重要性。根据需求可选择批量、实时、边缘或云服务等多种部署方式。成功部署需经历模型打包、容器化、自动化部署和监控等步骤。最佳实践包括全面自动化、版本控制和持续监控。主要挑战包括数据漂移、模型质量监控和跨职能协作等,需通过完善的工具和流程应对。
2025-11-24 17:29:07
781
原创 从Prompt到Context工程:与大模型高效沟通的完整指南
文章介绍与大模型有效沟通的两个关键概念:提示词工程和上下文工程。提示词工程关注提示词编写,而上下文工程则管理历史记录、长期记忆、RAG知识等上下文信息。文章分析了上下文超长、幻觉、混淆等问题,并详细介绍了固定窗口、分区控制、上下文压缩、选择性写入等优化策略。上下文工程是AI应用从Demo走向工业级应用的开发哲学,直接影响大模型输出效果。
2025-11-24 17:28:06
794
原创 大模型微调全攻略:从原理到实战落地,程序员必学技能
本文系统介绍大模型微调技术,涵盖核心原理、主流方法(如LoRA)及ms-swift框架实战流程。详解微调价值、底层逻辑、数据集构建策略及训练状态判断,帮助开发者低成本打造专属模型。通过从全参微调到高效微调的技术对比,结合代码实例,提供从环境配置到模型部署的完整指南,解决特定领域深度需求,实现"通用大脑"到"专业高手"的转变。
2025-11-22 18:01:52
1311
原创 大模型分词模型原理详解:从词元化到代码实现,小白也能掌握
文章详细介绍了分词模型(Tokenizer)在大模型中的核心作用,它是将原始文本切分为最小语义单位(token)并映射为整数ID的关键组件,建立了人类语言与模型数值表示之间的桥梁。通过DistilBERT分词器的代码演示,展示了文本编码、解码过程及分词器相关文件的功能,强调了分词模型对大模型性能、训练效率和多语言支持的深远影响。
2025-11-22 18:00:34
912
原创 Dify、n8n、Coze、Fastgpt、Ragflow到底该怎么选?超详细指南~
Dify、n8n、Coze、Fastgpt、Ragflow到底该怎么选?超详细指南~
2025-06-24 16:18:34
1164
原创 本地化部署DeepSeek-R1蒸馏大模型:基于飞桨PaddleNLP 3.0的实战指南
本地化部署DeepSeek-R1蒸馏大模型:基于飞桨PaddleNLP 3.0的实战指南
2025-06-23 22:25:31
1196
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅