- 博客(525)
- 收藏
- 关注
原创 AI Coding协作开发工作台 实战案例:为电商系统添加用户评论功能
本文通过一个完整案例,展示如何使用 Agent Dev Dashboard + GLM-4.7 进行实际的开发工作。
2026-01-30 09:44:28
692
原创 【AI Coding 协作开发工作台】 无需编码,全程基于AI的覆盖从需求到设计,开发,测试到部署的一站式开发平台
📦 GitHub 仓库: https://github.com/Vincent-chao-lang/agent-dev-dashboard-route3-githubpr。基于 SOP 驱动的多 Agent 协作开发工作台。
2026-01-29 15:23:32
188
原创 【 Markdown Illustrator - 自动配图系统】
文章封面:Markdown Illustrator - 自动配图系统为 Markdown 文章自动生成并插入配图的完整解决方案,支持多种 AI 文生图服务。
2026-01-20 21:56:22
662
原创 面试题:复杂的业务逻辑是用一个 Super Prompt,还是拆分成多个Agent 协作?判定拆分的临界点在哪里?
但如果你说:“去买杯咖啡,要瑞幸的,但如果没有瑞幸就买星巴克,星巴克要是关门了就去便利店,记得加冰不加糖,顺便帮我取个快递,快递如果太重就先放那,如果不重就带回来,对了,买咖啡的收票记得开公司抬头……3.任务链路超过 3 步:只要涉及‘先 A,再基于 A 的结果做 B,最后判断是否执行 C’这种逻辑,我一定会拆分成基于状态机(如 LangGraph)的多 Agent 协作,因为这样我才能对每一步的输出进行硬代码校验。可以像调试代码函数一样,单独测试“审计 Agent”的逻辑,而不影响“报表 Agent”。
2026-01-13 14:12:36
209
原创 能否晋级,就看能不能搞懂16道大模型应用开发面进阶试题
3.复杂的业务逻辑(如自动化财务审计),是用一个 Super Prompt(包含所有 SOP)引导模型,还是拆分成多个 专门的 Agent 协作?判定拆分的临界点在哪里?量化位数(4-bit vs 8-bit)对业务逻辑的影响如何评估?12.如何设计一个 智能路由层,自动将简单的打招呼发给轻量模型(如 GPT-4o-mini),将复杂逻辑发给旗舰模型(如 GPT-4o),以平衡成本和体验?15.在没有标准答案(Open-ended)的生成任务中,使用 更强模型(如 GPT-4)给弱模型打分 的可靠性如何?
2026-01-12 11:15:13
436
原创 分享:多智能体旅游助手系统 - 基于 CrewAI 框架
的设计哲学,这是构建复杂 AI 系统的最佳实践。通过角色分离、工具隔离、上下文控制,系统既提高了效率,又增强了安全性和可维护性!这个系统提供了完整的架构模板,您可以根据实际需求进行定制化开发!系统使用 Subagent 架构实现了。
2026-01-11 09:58:39
584
原创 基于《多Agent架构和应用指南》打造数字员工的分享
基于《多Agent架构和应用指南》,今天分享两个数字员工的实践整个技术栈是LangGraph1.0 +GLM 4。
2026-01-09 12:00:45
131
原创 备战大模型应用开发面试?这份题库直接参考!
想冲刺大模型应用开发岗位,却苦于不知道面试重点、无从下手准备?别慌!我已系统收集整理了一份大模型应用开发面试题库,精准覆盖核心考点。这份题库聚焦大模型应用开发全流程,涵盖提示词工程、大模型选型与适配、应用场景落地、技术难点突破等关键模块,既有基础概念辨析,也有实战场景应用题,贴合企业真实面试考察方向。无论你是刚入门的新手,还是想进阶的资深开发者,都能通过这份题库明确备考重点、查漏补缺。直接参考这份题库梳理知识点、模拟答题,帮你高效备战,轻松应对面试挑战!
2026-01-09 11:59:49
1249
原创 多Agent协作快速落地清单:3种主流架构+框架选型+避坑要点
这份清单专为快速落地设计,覆盖场景下最常用的3种架构,每个架构包含五大部分,直接照着执行即可完成部署。
2026-01-08 13:59:35
931
原创 破局之道:AI驱动软件工程(AI-Driven Software Engineering, ADSE)的4个核心方法论
前阵子和一个几十号人的研发团队聊AI辅助编程的实践,发现他们踩了个很典型的坑:全团队都在用AI写代码,效率看似提上去了,但上线后bug率飙升,后续维护更是头大——不同人用AI生成的代码风格混乱,模块之间衔接全是漏洞,积累的技术债比之前纯人工开发还多。这应该是很多团队用AI做软件工程的通病:以为把需求扔给AI,就能躺着出成果,却忽略了AI驱动开发的核心逻辑和传统开发完全不同。思考问题:你所在的团队用AI写代码时,最头疼的是技术债堆积,还是生成的代码不健壮、难维护.
2026-01-08 12:09:19
159
原创 从Markdown讲义自动生成教学视频的完整解决方案
获取密钥:https://cloud.baidu.com/product/speech/tts。macOS 会自动使用系统字体,Windows/Linux 可能需要安装相应字体。百度AI有免费配额限制,超额后可使用。如需使用百度AI语音合成,请修改。如对本方案有兴趣,欢迎关注私信.处理大型课程时,可以调整。
2026-01-06 16:02:55
630
原创 一个基于 FastAPI 开发的轻量级虚拟资源电商系统, 线下支付 + 后台确认机制
一个基于 FastAPI 开发的轻量级虚拟资源电商系统,支持线下支付确认和后台订单管理。
2026-01-06 14:00:24
777
原创 本地部署Qwen模型:生产级Agent服务封装(下)
该服务完全遵循生产级规范,可直接部署到服务器/容器平台,支持高并发、可监控、易扩展,同时保留了Agent的核心能力(工具调用、多轮对话)。
2025-12-31 21:54:38
84
1
原创 本地部署Qwen模型:生产级Agent服务封装(上)
"""计算器工具(生产级,增加安全校验)""""""校验表达式安全性"""# 过滤非法字符from utils . logger import logger from config . settings import settings class CalculatorTool : """计算器工具(生产级,增加安全校验)""" def __init__(self) : self . allowed_operators = {
2025-12-31 21:53:50
405
原创 Claude Code极简指南:一文学会安装和使用
核心结论:先配齐Node.js≥18、Anthropic授权/API Key,全局安装Claude Code,配置环境变量,进入项目目录启动并授权,即可开始实战。
2025-12-30 10:31:37
442
原创 step-by-step树莓派 4B/5部署端模型
树莓派部署 llama.cpp 的核心是「适配资源」:用 64 位系统+小参数量化模型+针对性编译优化,就能实现本地推理。推荐新手从 Phi-3-mini 1.3B 模型开始,门槛最低、速度最快,适合验证功能;若追求更好效果,再尝试 7B 模型。树莓派的优势是低功耗、全离线,适合做隐私保护的边缘 AI 设备(如本地语音助手、小型问答机器人)。附录适合树莓派部署的量化模型,核心要满足参数量1 - 8B、量化后体积小,且适配llama.cpp支持的GGUF格式,同时能适配树莓派4B/5的硬件资源。
2025-12-30 09:38:53
790
原创 基于Qwen的Agent的生产级封装及部署方案
一文中,我们提到了本地化部署模型。而要把它应用于生产实践,还需要从整个系统的架构及运行部署,监控等多个方面进行重构和调整,下面给出的是生产级的技术方案,如果你这正好有这方面的需求,可以在CSDN发消息给我。
2025-12-29 12:14:26
128
原创 基于Qwen的Agent开发实战:完整代码+环境配置+运行步骤
本文将从零开始实现一个基于阿里云通义千问(Qwen)的智能Agent,包含环境配置、核心代码实现、运行步骤及功能扩展,确保你能快速复现并二次开发。
2025-12-29 11:19:32
786
原创 分享:Docling:本地自动注释 PDF 图像
Docling 运行本地视觉语言模型(Granite Vision、SmolVLM),自动为文档中的每张图片生成描述性注释,同时保护数据隐私。您可以使用 Gemini 或 ChatGPT 等云 API,但这意味大规模应用会产生 API 成本,并且您的文档会离开您的基础设施。PDF 文件中的图表、示意图和图形等图像无法被搜索和分析。手动为数百个图形编写描述是不切实际的。灵活性:可自定义提示,支持任何 HuggingFace 模型。隐私保护:数据保留在本地,可离线使用。费用:无每张图片 API 费用。
2025-11-29 20:45:02
623
原创 【经验分享】在旧版本macOS 上成功编译 llama-server的方法。
这个方法使用了 CMake,并针对 macOS 链接器的特殊要求进行了配置。加速,并绕过 macOS 链接器关于动态库版本号格式的错误。符号找不到和后来的链接器版本号格式错误。使用此编译出的程序,即可解决最初的。编译成功后,你需要的。
2025-11-27 15:52:54
678
原创 资源推荐一览:Fasttext 语言识别速度提升 80 倍,准确率达 95%
这是一个命令行工具,用于对 Jupyter Notebook 中的 Python 代码运行代码检查器和格式化程序。其特点包括用于上下文卸载的虚拟文件系统、配备专用工具集的专用子代理,以及适用于现实世界研究和分析任务的复杂代理架构。用于评估大型语言模型(LLM)或使用LLM构建的系统的框架,具有现有的评估注册表和编写自定义评估的能力。Shiny for Python 是用 Python 构建快速、美观的 Web 应用程序的最佳方式。该Python库使用LLMs执行数据清洗任务,用于分类、转换和管理。
2025-11-27 13:12:21
311
原创 《从头开始构建大型语言模型(LLMs)》的作者关于如何阅读和充分利用这类技术书籍的建议
如果我得到的结果与书中的不同,我会查看本书的 GitHub 仓库并尝试那里的代码。如果我仍然找不出原因,询问作者也不是一个坏主意(通过书籍论坛、公共 GitHub 仓库的问题或讨论,以及作为最后的手段,电子邮件)。这可能涉及使用章节中的主要概念,但有时也会涉及我在学习过程中学到的小知识点,例如,即使是像在我的项目中。如果某个主题总体上非常熟悉或容易,而我阅读这本书的主要目的是为了获取后续章节中的一些信息,那么跳读(skim)一个章节是可以接受的(以免浪费我的时间)。,这些书是关于从头开始构建 LLM 的。
2025-11-26 21:56:55
336
翻译 使用 Delta Sharing 进行直接数据共享 - 简介:我们在 Zalando 赋能合作伙伴的旅程
试想一下:您是 Zalando 的合作伙伴,想要了解您的产品在欧洲最大的时尚平台之一上的表现。您需要洞察数据,以便制定有关库存、定价和产品组合规划的战略决策。然而,您并没有获得所需的数据,而是发现自己不得不疲于应对多个系统、格式和繁琐的手动流程,才能拼凑出一个清晰的业务绩效概览。这就是我们的合作伙伴面临的现实,也是我们不能忽视的问题。在 Zalando 数据基础架构部门的合作伙伴技术部门,我们通过三种不同的商业模式与合作伙伴共享数据和见解,以指导他们的业务发展:这些合作关系都会产生宝贵的数据,但如何以有用的
2025-11-26 15:15:33
55
原创 微信小程序云开发实践:共享环境与LLM整合经验
采用微信小程序云开发模式,成功实现两个小程序在共享云环境下的快速上线。该模式特别适合中小型项目快速验证,后续将持续优化大模型与云开发的深度结合方案。
2025-11-25 23:18:26
411
原创 基于mcp+deepseek+fastmcp实现一个天气查询系统
这是一个非常具体且前沿的技术组合,是当前 AI Agent 领域中非常先进的实践模式,它实现了的能力与的安全、标准化集成。
2025-11-24 21:40:44
125
原创 从“硬件盒子”到“生态帝国”:华为的生死转型与未来挑战
在公众认知中,华为的形象是多面的:它是5G技术的全球领导者,是曾与苹果、三星掰手腕的手机巨头,也是被推上地缘政治风口的中国科技象征。然而,一个更深层次、更根本的转型正在华为内部发生——它正倾尽全力,试图将自己从一家卓越的“硬件工程”公司,重塑为一个软硬一体、万物互联的“平台生态”公司。劣势:其流程的刚性可能扼杀早期、探索性的技术创新,导致在追求“从1到N”的极致时,弱化了“从0到1”的颠覆能力。天文数字的投入:构建生态是一场耗时、烧钱的“长征”,其研发、推广和开发者补贴的规模,远超硬件时代。
2025-10-14 09:17:06
610
原创 当前数字化转型的“势弱”,更像是一次市场出清和价值回归
当泛化的“数字化”热潮退去,我们才能更清晰地看到,像华为这样在操作系统、AI根技术、云计算底座等领域进行战略性投入的公司,其转型的深度和韧性所在。3. 浪潮退去后的裸泳:当经济进入调整期,企业客户发现这些“数字化项目”并未带来预期的根本性增长,便开始砍掉这些“可有可无”的开支。1. 风口上的崛起:乘着“数字化转型”的东风,它们以“赋能者”的身份出现,为传统企业(如银行、政府、零售业)提供大数据、AI中台、精准营销等解决方案。真正的转型,从来不是一次性的项目,而是一场持续的、深刻的组织能力和商业模式的进化。
2025-10-14 09:14:53
303
原创 【专栏升级】大模型应用实战并收录RAG专题,Agent专题,LLM重构数据科学流程专题,端侧AI专题,累计63篇文章
大模型应用实战涵盖微调技术,通过调整预训练模型参数使其适应特定任务需求,提升模型在垂直领域的表现。部署优化章节涉及模型量化、剪枝等压缩技术,以及推理加速框架应用,确保生产环境下的性能与成本平衡。系统讲解检索增强生成技术架构,包括向量数据库选型、语义检索优化及生成结果校准方法,解决大模型事实性错误问题。部分展示大模型如何变革传统数据分析范式,涵盖自然语言交互式分析、自动化特征工程及模型解释性增强。聚焦移动端与边缘设备部署方案,包括轻量化模型转换、设备端推理框架选择及隐私保护技术实现。
2025-09-02 20:39:44
433
原创 【系列15】端侧AI:构建与部署高效的本地化AI模型 第14章:联邦学习与端侧训练
联邦学习(Federated Learning)是一种去中心化的机器学习方法。它允许分散在不同设备上的数据(例如,你的手机、智能手表等)在不离开设备的情况下,协同训练一个共享模型。分发模型:云端服务器首先向所有参与的端侧设备分发一个初始模型。本地训练:每台设备都使用其本地数据对模型进行训练或微调,并计算出模型的更新参数。上传更新:设备只将这些更新参数(而不是原始数据)上传到云端服务器。聚合更新:服务器将来自所有设备的更新进行聚合,生成一个更强大的共享模型。循环迭代。
2025-09-01 14:01:18
520
原创 【系列14】端侧AI:构建与部署高效的本地化AI模型 第13章:端侧多模态AI
本章将探讨如何将不同的AI模型结合,在端侧实现多模态交互,并通过两个典型案例进行分析。例如,ASR和TTS模型可以使用NPU进行加速,而LLM的推理则可以利用GPU的并行计算能力。在端侧实现多模态AI,核心在于高效地协同多个专用模型,而不是使用一个单一的巨大模型。端侧多模态AI的未来,在于将多个小而美的AI模型集成到同一个系统中,让它们协同工作。LLM结合用户的地理位置信息,生成自然的语音指令,如“在星巴克路口左转”。:例如,ASR模型将语音转换为文本,这个文本随后作为LLM的输入。
2025-09-01 14:00:33
627
原创 【系列13】端侧AI:构建与部署高效的本地化AI模型 第12章:性能监控与优化
在端侧部署AI模型,仅仅使其能运行是远远不够的。为了提供流畅、高效的用户体验,开发者必须对模型的性能进行深入的监控和优化。本章将介绍如何评估端侧模型的关键性能指标,使用专业工具进行瓶颈分析,并提供针对不同硬件平台的优化技巧。通过系统地监控、分析和优化,开发者可以构建出体积小、速度快、功耗低,且在端侧设备上表现卓越的AI应用。要优化模型的性能,首先需要找出瓶颈所在。专业的性能分析工具能提供详细的数据,帮助开发者定位问题。不同的硬件平台有不同的架构特点,因此优化技巧也各不相同。
2025-09-01 13:59:41
705
原创 AI 炒作与应用现实:2025 年架构师应对之道
竞争对手展示着华丽的演示。如果你在最初的架构计划中没有考虑到这些,你的 AI 功能可能成功上线,但会成为一个难以维护的负担。现实是,糟糕的 AI 实施实际上会伤害你的产品,它会增加显著的复杂性,减慢性能,并给你的应用引入不可预测的行为。你确保当 AI 出现在你的产品中时,它是因为对公司的业务价值和目标有意义,而不仅仅是幻灯片上的一行字。架构师工作中一个最困难的部分是,在不扼杀创造力的情况下,回绝不现实的想法,而创造力正是产品伟大的原因。在 2025 年,讨论的是你是否能维持对 AI 的投资。
2025-08-31 20:47:03
706
原创 【系列12】端侧AI:构建与部署高效的本地化AI模型 第11章:边缘设备与IoT部署
除了移动设备,AI的端侧部署更广阔的舞台是边缘设备和物联网(IoT)领域。这些设备通常算力有限、功耗敏感,但却需要实时、高效的AI能力来处理本地数据。本章将探讨如何在树莓派和英伟达Jetson等主流平台上部署AI模型,并通过案例分析其在智能摄像头和机器人中的具体应用。总而言之,边缘设备和IoT是端侧AI技术应用最广阔的蓝海。通过将AI能力下放到设备本身,我们不仅能解决成本、隐私和延迟问题,还能解锁更多创新的应用场景。
2025-08-31 20:42:20
521
原创 【系列11】端侧AI:构建与部署高效的本地化AI模型 第10章:LLM端侧部署
无论是ONNX Runtime还是llama.cpp,它们都提供了将LLM部署到端侧的有效路径。通过这些工具,开发者可以构建出在离线环境下也能提供强大语言能力的AI应用,从而彻底改变用户与AI的交互体验。将大语言模型(LLM)部署到端侧设备,是实现真正普及的关键一步。然而,与传统的计算机视觉模型相比,LLM的庞大体量和计算复杂度带来了前所未有的挑战。ONNX Runtime是一个跨平台的推理引擎,能够运行ONNX格式的模型。为了克服这些挑战,研究人员和开发者主要通过对LLM的核心架构。
2025-08-31 20:40:49
809
原创 【系列10】端侧AI:构建与部署高效的本地化AI模型 第9章:移动端部署实战 - iOS
它与苹果自研的芯片(如A系列和M系列)深度集成,能够高效利用神经引擎(Neural Engine)进行硬件加速。本章将引导你如何在Xcode中部署一个模型,并讨论相关的输入输出处理与模型管理策略。通过 Core ML,开发者可以高效地在 iOS 设备上部署 AI 模型。结合合理的模型管理策略,可以确保你的应用始终使用最新、最优的模型,从而为用户提供卓越的 AI 体验。:在你的 Swift 文件中,你可以直接通过生成的类来加载模型并进行预测。在应用发布后,如果需要更新模型,你有多种管理策略可以选择。
2025-08-30 15:59:17
704
源码:Mini Shop - 虚拟资源电商系统 一个基于 FastAPI 开发的轻量级虚拟资源电商系统,支持线下支付确认和后台订单管理
2026-01-06
CodeCut 数据科学工具库中Python数据处理与机器学习技术的应用
2025-09-01
Excel【办公软件应用】Excel 2016快速入门指南:基础功能介绍与高效办公技巧汇总了文档的主要内容
2025-07-05
大模型实战系列-08 开发一个基于 MCP 协议的多 Agent 协作系统
2025-07-03
鸿蒙分析报告,大模型 也许成为鸿蒙跨越应用“鸿沟”的契机
2025-04-12
这份报告对 YC 2023 年和 2024 年队列中的 417 家人工智能公司进行了广泛的分析
2024-08-17
世界各地很多服务提供商采纳了TM论坛的TOM2.1业务架构模式,TOM已经成为服务提供商运营管理的工业标准。但是。。。。
2022-02-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅