自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(127)
  • 收藏
  • 关注

原创 AI工程化实战(三):不止于大——LoRA微调实战,让你的模型“更懂你”

本文介绍了LoRA(低秩适应)微调技术及其在ChatGLM3-6B模型上的实战应用。LoRA通过冻结预训练模型参数并添加可训练的低秩矩阵,实现了高效微调,显著降低了显存需求(仅需15GB即可微调6B模型)。文章详细阐述了LoRA的核心原理、三大优势,并提供了完整的代码实现流程:从环境配置、数据准备到模型训练与推理测试。通过客服问答数据集的微调案例,展示了如何让模型掌握特定领域知识和回答风格。此外,还给出了进阶优化建议和部署方案,对比了LoRA与全量微调的资源消耗,证明LoRA能大幅降低大模型微调门槛。

2026-03-13 09:44:52 553

原创 AI工程化实战(二):记忆为王——手把手教你用RAG技术为LLM装上“外挂知识库“

RAG技术:解决大模型知识局限性的关键方案 文章摘要: 本文深入探讨了RAG(检索增强生成)技术如何解决大语言模型在知识更新、专业深度和准确性方面的核心缺陷。通过将外部知识库检索与大模型生成能力相结合,RAG实现了从"记忆"到"理解"的跃迁。文章详细拆解了RAG系统的核心架构,包括离线索引(文档加载、文本分割、向量化)和在线检索生成(查询向量化、相似性搜索、增强提示构造)两个关键阶段,并提供了完整的Python实现方案。特别强调了生产环境中的三大优化策略:混合检索、查

2026-03-13 09:32:52 787

原创 AI工程化实战(一):程如何用AI Agent重构你的第一个项目?

2026年AIAgent开发指南:从零构建新闻聚合智能体 本文系统介绍了2026年AIAgent开发的核心范式与实践方法。主要内容包括: Agent核心架构:Agent=LLM(推理)+规划+记忆+工具+反馈环,具备自主决策与执行能力 关键技术: ReAct框架实现"思考-行动-观察"循环 LangGraph图式编排取代传统线性Chain 状态管理实现复杂任务处理 实战案例: 构建新闻聚合Agent,实现主题识别、新闻搜索、内容抓取、摘要生成全流程 采用StateGraph构建工作流,支

2026-03-13 08:59:03 689

原创 基于 Ollama + Qwen3.5 + OpenClawbot 的本地 RAG,接入企业微信 / 飞书(实战篇)

本文介绍如何在已有OpenClawbot+RAG+Qwen3.5的本地AI助手基础上,通过添加IM渠道实现多端接入。主要内容包括: 保持原有RAG系统不变,仅新增企业微信和飞书作为接入渠道; 详细说明企业微信和飞书的配置流程,包括获取凭证、修改config.yaml等关键步骤; 提供完整的多端配置示例,并给出常见问题排查方法; 强调测试验证的重要性,确保IM渠道能正确调用本地RAG知识库回答问题。该方案可在不改动核心AI系统的情况下,快速实现企业级IM平台的智能助手接入。

2026-03-11 10:27:46 761

原创 从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

在本地安装并启动Ollama;拉取并验证可以运行的Qwen 3.5 0.8B 模型;安装;写好,让 OpenClaw 通过Ollama 调 Qwen 3.5;启动网关和 TUI,确认可以在终端完成整链路对话;初步了解了如何把机器人接入 Telegram。

2026-03-11 09:21:35 1676

原创 给企业微信 AI 小助手加一个可编辑的管理后台:动态修改用户配额和权限(实战篇)

本文介绍如何在现有AI小助手项目中扩展管理后台功能,使其支持配额和权限的在线编辑。原系统已实现FastAPI+OpenAI接口、企业微信对接和配额管理,但修改配置需重启服务。改进方案包括:1)增强UserPolicyManager支持策略热更新;2)新增编辑API接口;3)前端添加编辑功能。实现后,管理员可直接在网页调整用户/部门配额和权限,无需重启服务。文章还提供了代码实现要点和使用场景建议,并指出需注意权限控制、数据备份等优化方向。

2026-03-11 08:37:34 463

原创 从文档到知识图谱:基于 Ollama + RAG 的实体/关系自动抽取实战

本文提出了一种结合RAG技术与知识图谱构建的方法,主要包括四个步骤:1)文档分块向量化存储;2)利用本地大模型抽取实体和关系;3)构建知识图谱;4)可视化展示。系统支持两种模式:离线全量抽取和在线按需抽取(RAG检索相关片段后抽取)。关键技术包括RAG检索优化、实体关系抽取Prompt设计(强制JSON格式输出)以及轻量级图谱实现(NetworkX+PyVis)。建议先实现基础版本,选择结构化文档作为输入,控制图谱规模以确保可视化效果。该方法可有效解决全文抽取成本高、质量差的问题,适用于技术文档分析等场景。

2026-03-10 14:09:00 781

原创 把团队规范也教给本地 Qwen3.5:让代码知识库同时懂“代码”和“规矩”(Ollama + RAG 进阶)

本文探讨了在RAG系统中整合团队规范的必要性和实现方案。针对代码审查场景中通用AI建议与团队实际规范脱节的问题,作者提出建立独立的"团队规范知识库层",包含编码规范、事故复盘、最佳实践等文档。通过新增TeamSpecRAG模块实现规范向量化存储,在代码审查时自动检索相关规范片段并注入Prompt,使AI输出能明确引用团队特定规范条款(如"根据《异常处理规范v2》第3条...")。方案采用代码库与规范库分离的双层RAG架构,规范库支持Markdown等格式文档,通过改造

2026-03-10 13:49:41 475

原创 做一个「问代码仓库」的网页:用 Streamlit + Ollama + RAG 搭团队内部小工具

本文介绍了一个基于Streamlit和Ollama构建的本地化代码仓库问答工具。该工具通过RAG(检索增强生成)技术,允许团队成员在浏览器中直接提问关于代码仓库的问题,如查询特定功能的实现位置、模块调用关系等。系统架构包含Streamlit前端、ChromaDB向量数据库和本地运行的Qwen3.5模型,支持全量索引和增量更新。文章详细说明了环境准备、核心RAG类实现、前端界面设计以及部署使用方法,特别强调了工具的离线可用性和团队协作特性。该方案适合作为内部开发辅助工具,帮助团队成员快速理解复杂代码库。

2026-03-10 11:18:43 550

原创 让代码知识库“活”起来:给 Ollama + RAG 代码仓库加上增量更新与自动同步

本文介绍如何为本地代码知识库实现增量更新功能,解决全量重建索引耗时问题。通过文件哈希比对识别变更文件,基于原有RAG架构新增状态管理模块,实现只更新修改过的代码片段。提供全量索引(full_ingest)和增量索引(incremental_ingest)两种模式,支持自动同步最新代码变更。建议将增量索引集成到Git pre-commit钩子中,确保知识库与代码实时同步,同时给出不同团队规模下的索引频率建议。

2026-03-10 08:49:34 628

原创 从“能问”到“能改”:把本地代码知识库接入 Cursor / Cline,实现边问边改

本文介绍如何将代码知识库(CodeRAG)系统接入编辑器,实现开发过程中即时查询代码功能。通过在原有命令行版CodeRAG基础上增加HTTP/MCP服务层,使开发者能在VSCode/Cursor等编辑器中直接提问获取代码分析结果。文章详细讲解了使用FastAPI构建HTTP服务的方法,并展示了如何配置Cursor/Cline调用该服务。此外还提供了MCP协议的实现思路,以及几个典型使用场景示例,如业务流程梳理、重复逻辑查找等。这种集成方式可显著提升开发效率,实现"边看边问边改"的工作流程

2026-03-09 10:05:55 414

原创 “问代码仓库任何问题:用 Ollama Embedding + RAG 搭一个本地代码知识库”

本文介绍了一个基于RAG(检索增强生成)技术的本地代码问答系统,能够通过自然语言查询快速定位和理解代码仓库内容。系统通过Ollama提供的嵌入模型和问答模型,结合ChromaDB向量数据库,实现了代码解析、向量化存储、相似度检索和智能回答的完整流程。核心功能包括:1)索引代码仓库并构建向量数据库;2)支持自然语言查询如"用户注册逻辑在哪些文件";3)返回结构化答案并附上相关代码片段。文章详细说明了环境配置、架构设计、核心代码实现和使用流程,并提供了性能优化和实践建议。该系统特别适合开发人

2026-03-09 09:42:49 547

原创 2026 本地 AI 实战:用 Ollama + Qwen3.5 打造一个「CSV 数据解读助手」

本文介绍了一个本地运行的CSV数据解读助手工具,通过Ollama+Qwen3.5本地大模型实现自然语言查询表格数据并生成结构化分析报告。该工具主要解决日常工作中分析CSV/Excel表格的三大痛点:数据趋势难识别、Excel高级功能使用门槛高、撰写分析结论耗时。用户只需上传CSV文件并用中文提问(如"销售额趋势如何?"),工具就会自动输出包含统计分析和业务建议的Markdown报告。文章详细说明了环境配置方法(安装Ollama和Python依赖)、核心设计思路(使用Pandas提取数据特

2026-03-09 08:58:14 783

原创 2026 本地 LLM 安全进阶:gVisor vs Firecracker 微VM,给 Ollama + Qwen3.5 上最后一层“铁罩盔”

文章摘要:本文探讨了在本地LLM部署中加强安全隔离的进阶方案。针对两类高风险场景(不可信代码执行和系统漏洞风险),作者建议在现有容器安全加固基础上增加微VM隔离层。文章对比了gVisor、Firecracker和Kata三种隔离方案,推荐gVisor处理常规任务(API调用、文件读写),Firecracker微VM处理高危操作(代码执行、Shell命令)。详细演示了如何为Ollama配置gVisor runtime,并给出Firecracker微VM的简化实现思路。最后提出六层"洋葱式"

2026-03-09 08:27:55 516

原创 超安全沙箱实战:用 seccomp / AppArmor 将 Ollama + Qwen3.5 隔离到“能用又够硬”

文章摘要:本文探讨在已有零信任工具网关的基础上,为何仍需内核级沙箱(seccomp+AppArmor)来强化AI模型安全。作者指出网关层存在被绕过的风险,提出通过Linux内核机制从系统调用层面进行防护:1)seccomp限制可执行的系统调用,禁用exec等高危操作;2)AppArmor控制文件访问路径与网络权限。文章提供了Ollama容器的具体配置示例,并展示了五层纵深防御体系(网络入口、容器系统、工具调用、数据流、审计测试)。最后通过实测验证防护效果,强调即使上层防线被突破,内核级机制仍能有效阻止系统被

2026-03-07 14:27:30 439

原创 用实际攻击样例验证你的零信任工具网关:5 种 Prompt Injection 攻击与防御演练

你现在在本地 LLM 安全这块,最担心的是哪一类问题(数据泄露 / 工具滥用 / RAG 注入 / 代码执行)?Prompt Injection 的麻烦就在于——它不是靠几条 if 判断就能“想当然挡住”的,你必须用。然后你让 Agent 去“阅读和总结”这些内容,它顺手就把里面的“指令”也当成了要执行的任务。接下来我们要做的,是在这个接口上设计一组“红队测试用例”,验证它在各种典型攻击下的表现。,但如果在某些工具里把参数又拼回 shell,就有命令注入的空间。去对着自己的网关一顿猛打,看看实际能扛多少。

2026-03-07 14:18:21 544

原创 2026 本地 LLM 安全实战:给 Ollama + Qwen3.5 打造一个“零信任工具调用网关”(从烂摊子到可审计)

本文探讨了本地LLM应用中工具调用层的安全性问题,提出了构建"工具调用网关"的必要性。文章指出,当前直接暴露系统函数(如文件读写、命令执行)给LLM的方式存在严重安全隐患,容易被Prompt注入攻击利用。作者设计了一个安全网关方案,包含工具白名单管理、参数校验、资源访问控制、审计日志等核心功能,并通过Python代码示例展示了如何实现受限文件操作工具。该方案将工具调用权从模型转移到网关层,在保持功能的同时大幅提升安全性。文章还给出了在现有项目中落地该方案的具体建议,并展望了将网关发展为独

2026-03-07 13:52:08 630

原创 别再迷信“本地就安全了”:零信任视角下的 Ollama + Qwen3.5 执行环境加固实践

【摘要】本地部署大模型并非天然安全,需引入零信任架构进行加固。Ollama默认无鉴权、工具调用开放高危权限、内网横向移动风险构成三大核心威胁。建议采取四层防护:1)网络隔离与API网关;2)容器化沙箱环境;3)工具调用白名单机制;4)输入输出内容过滤。关键实践包括限制服务暴露范围、非root容器运行、封装高危操作、建立审计日志等。验证环节需测试端口封闭性、越权访问阻断、恶意指令拦截等能力。最终强调本地部署仅是起点,必须通过持续的多层防御构建真正安全防线。

2026-03-07 13:34:21 947

原创 2026 本地 AI 运维助手综合实战:把系统监控、API 和 MySQL 性能周报一键串起来(Ollama + Qwen3.5)

本文介绍了一个自动化生成系统性能综合周报的方案。该方案整合了系统监控、API性能和数据库性能三方面的分析报告,通过本地Qwen3.5模型进行高层次归纳,输出包含整体健康度评价、风险点归因和下周工作重点的综合分析。文章详细说明了架构设计、实现步骤和使用方法,包括: 复用已有的三个分析器生成子系统报告 构建综合分析提示词模板 调用本地AI模型生成统一视角报告 建议将综合分析作为周报开头部分 提供自动化部署方案 该方案能显著提升技术周报的条理性和信息密度,帮助管理者快速掌握系统整体性能状况。

2026-03-06 09:28:39 538

原创 2026 本地 AI 技术助手实战:用 Ollama + Qwen3.5 自动生成 API 性能深度分析周报(含完整脚本)

本文介绍了一种基于本地AI的API性能分析周报自动生成方案。该方案利用pandas处理API调用数据(包括延迟、错误率、流量等指标),通过本地部署的Qwen3.5模型将统计结果转化为结构化分析报告。相比传统手工分析,该方法具有数据本地处理、隐私安全、分析自动化等优势,能快速生成包含性能概况、瓶颈接口、错误分布、优化建议等内容的Markdown报告,可直接嵌入技术周报。文章详细说明了数据格式要求、环境配置、核心脚本实现逻辑,并提供了示例分析报告和实际应用建议,帮助开发者提升API监控分析的效率和质量。

2026-03-06 09:13:57 685

原创 2026 本地 AI 运维助手实战:用 Ollama + Qwen3.5 自动生成技术监控周报(含完整脚本)

本文介绍了一种利用本地AI(Ollama+Qwen3.5)自动生成技术监控周报的解决方案。该方案通过Python+pandas处理从监控系统导出的CSV/JSON数据,计算关键指标后,由本地大模型生成结构化的技术分析报告。主要特点包括:1)数据不出本地,确保安全;2)结合精确统计与自然语言分析;3)可定制分析风格和内容结构。文章详细展示了从环境配置、数据结构设计到核心脚本实现的全流程,并提供了示例输出。该方案能显著提升技术周报编写效率,特别适合需要定期分析接口QPS、错误率、资源使用率等指标的运维/SRE人

2026-03-06 08:57:57 761

原创 从 Excel 到周报,只需一条命令:本地大模型办公自动化实战教程:用 Ollama + Qwen3.5 自动分析 Excel 报表并生成周报数据分析段(含完整脚本)

本文介绍如何利用本地AI助手(Qwen3.5)实现自动化周报数据分析系统。系统通过Python+pandas处理Excel报表数据,再由本地大模型生成结构化分析段落,解决传统周报中数据汇总繁琐、分析不深入的问题。具体实现包含:1)数据层处理Excel/CSV报表;2)处理层进行环比、同比等统计计算;3)分析层将统计结果转化为可读性强的分析文本。该系统完全在本地运行,保障数据安全,最终输出可直接插入周报的Markdown格式分析内容,显著提升周报质量和编写效率。

2026-03-06 08:43:30 711

原创 2026 本地 AI 办公助手实战:用 Qwen3.5 自动生成周报和月度总结(含完整脚本)

摘要:本文介绍如何利用本地大模型(Qwen3.5)搭建自动周报/总结生成系统,解决云端模型的隐私风险、上下文不连续和格式不统一三大痛点。通过每日记录简单工作日志(3-5分钟),周末/月末运行Python脚本自动调用本地模型,生成结构统一、语言专业的周报/总结草稿。系统包含日志收集、提示词模板设计、脚本实现等完整方案,支持自定义汇报风格,所有数据处理均在本地完成,确保数据安全。文章提供了完整的代码实现和目录结构,并分享优化AI输出效果的实战经验,帮助用户高效完成重复性汇报工作。

2026-03-05 09:24:55 699

原创 别再熬夜写周报了:Ollama + Qwen3.5 自动周报生成器实战

如何用AI自动生成高质量周报?关键在于两点:1)完整记录本周工作内容(按项目/模块分类,包含结果数据、问题和下周计划);2)提供清晰的周报模板和风格要求。最简单的实现方式是:将每日工作记录整理成结构化内容,通过固定提示词让AI生成初稿后微调。进阶方法包括创建可复用模板或开发本地脚本自动调用大模型生成周报。核心建议:每天花2-3分钟记录工作要点,保持内容结构化,生成后对关键内容进行人工补充。这种方法适用于各类AI工具,能显著提升周报撰写效率。

2026-03-05 09:14:49 601

原创 从“能跑”到“跑得快”:Qwen3.5 本地量化 + 性能优化全流程

本文介绍了如何通过量化技术优化本地运行的Qwen3.5大模型,解决显存占用高、响应速度慢等问题。量化通过将模型权重压缩为4位或8位整数,可显著降低显存需求并提升推理速度。文章提供了两种实现方式:直接使用Ollama预量化模型(如qwen3.5:7b-instruct-q4_0)或通过transformers库进行4bit加载。实测表明,7B模型量化后显存可从12GB降至6GB,响应时间缩短至1秒左右。文中还演示了如何将量化模型无缝接入已有项目(代码生成/RAG),并给出温度控制、上下文长度等实用优化建议。最

2026-03-05 08:58:34 3116

原创 从聊天到干活:本地 Qwen3.5 + Ollama 工具调用进阶教程

本文介绍了如何让本地大模型Qwen3.5通过Ollama实现工具调用功能,使其从聊天机器人升级为能执行实际任务的AI助手。文章演示了三个实战案例:1)代码分析工具,可自动解析Python代码结构;2)文档助手,能读取本地文件并生成摘要;3)系统信息工具,获取只读型系统数据。作者建议工具设计应遵循"专一功能+结构化参数+安全限制"原则,优先开发只读型应用场景。通过工具调用,模型可结合预设的Python函数完成复杂任务,大幅提升实用性。

2026-03-05 08:52:19 1122

原创 2026 零代码 AI 入门教程:用 Dify 打造你的个人知识库助手(保姆级图文)

摘要:本文介绍了如何利用Dify零代码平台快速搭建个人知识库问答系统。主要内容包括:1)Dify的优势,如拖拽式搭建和一键上线;2)本地部署与云端体验两种方式;3)连接本地大模型Ollama+Qwen3.5;4)创建知识库并上传文档;5)构建聊天助手应用;6)系统提示词优化和效果调试;7)进阶工作流应用场景。通过Dify,用户无需编写代码即可实现基于本地知识库的智能问答系统,并支持进一步扩展为个性化助手。

2026-03-04 09:22:06 724

原创 从0到1本地AI知识库实战:用 LangChain + Qwen3.5

2026年AI学习者必须掌握RAG(检索增强生成)技术,因为它能有效解决企业知识分散、模型知识过时和数据安全三大痛点。本文提供了一份RAG系统搭建指南:使用LangChain框架、Qwen3.5本地模型和Chroma向量数据库,从文档加载、文本切分到检索生成的全流程实现。教程包含代码示例和配置建议,可快速搭建一个能查询本地知识库的问答系统,并给出优化方向(如调整文本块大小、增加缓存)和常见问题解决方案。通过7天实践计划,学习者可逐步掌握RAG技术并将其应用于实际工作场景。

2026-03-04 09:14:56 1019

原创 2026 本地大模型入门:新手用 Ollama + Qwen3.5 搭建开发助手(保姆级教程)

本文介绍如何通过Ollama工具在本地部署Qwen3.5大模型,并开发AI编程助手。相比云端API,本地大模型具有数据隐私、响应稳定、成本清晰等优势。教程详细讲解了环境配置、Ollama安装、模型下载、Python调用方法,并提供了一个实用的开发助手项目,可实现代码生成、审查和文档生成功能。文章还给出了新手学习路径建议,帮助开发者快速掌握本地大模型的应用技巧。

2026-03-04 09:02:26 5179

原创 AI Agent:下一代应用开发的核心技能

【摘要】2026年AIAgent将成为应用开发的核心能力,其进化体现在三大趋势:从问答转向任务执行(自主规划/调用工具/多轮迭代)、单模型到多Agent协同、百万级上下文记忆支持长周期项目。核心架构遵循感知-决策-行动-记忆闭环,常用LangChain/CrewAI等框架实现。通过Python示例演示了双Agent协同的企业新闻分析系统,并建议采用消息总线管理复杂协作。性能优化需关注模型量化、缓存及思维链技术,同时必须防范提示注入等安全风险,建立工具权限控制与审计日志机制。开发者需掌握这些技能以应对下一代A

2026-03-04 08:40:58 431

原创 给企业微信里的 AI 小助手配一个可视化管理后台:实时查看配额和权限(实战篇)

本文介绍如何在现有FastAPI+OpenAI企业微信AI助手项目中,添加一个轻量级Web管理后台。通过复用原有Redis+JSON策略系统,创建两个新路由:/admin/dashboard返回HTML页面,/admin/dashboard_data提供JSON数据。管理员可通过浏览器实时查看用户/部门的Token使用情况(剩余/已用/限额)和权限配置(可用技能/模型),支持按部门筛选。该方案保持原有业务逻辑不变,仅提供只读视图,方便业务负责人监控使用情况、优化配额分配,并为后续扩展策略编辑、调用明细等功能

2026-03-03 10:24:11 1063

原创 给企业微信里的 AI 小助手加上「按人按部门配额和权限控制」(实战版)

本文介绍了如何为企业微信AI机器人添加配额和权限控制,使其成为可控的内部服务而非"玩具"。通过在现有/v1/chat接口外层添加策略判断层,基于JSON配置文件和Redis实现用户/部门的配额管理(每日Token上限)和权限控制(可用技能/模型)。文章详细说明了策略配置格式、UserPolicyManager实现、接口改造方案,并提供了常见问题排查方法和管理建议。这套方案无需重构现有系统,即可实现按角色分层开放功能、控制成本等目标,使AI助手真正服务于企业需求。

2026-03-03 10:08:02 1145

原创 把 AI 小助手接入企业微信:用一个回调接口做群聊机器人实战篇

本文介绍如何将现有AI服务快速接入企业微信,使其成为群聊机器人。通过添加一个轻量级适配层,在不改动原有AI核心逻辑(/v1/chat接口)的前提下,实现企业微信消息与企业AI服务的对接。具体步骤包括:1)在企业微信后台创建应用并配置回调URL;2)使用wechatpy库处理消息加解密;3)编写适配器转发用户消息至AI服务并返回响应。该方法仅需新增一个适配文件,通过Nginx反向代理暴露公网接口即可完成部署,使员工能直接在群聊中@机器人使用AI服务,大幅提升使用频率。文章还提供了故障排查清单和进阶扩展建议。

2026-03-03 09:48:37 1831

原创 在自己的 AI 小助手里做多模型路由:按场景选模型 + 出错自动降级(实战记录)

本文介绍了一种AI小助手的多模型路由与自动降级方案,解决了模型选择、配额管理和接口稳定性的问题。通过配置不同档位的模型信息,系统能根据技能类型、问题长度和用户等级自动选择合适模型,并在配额不足或调用失败时自动降级。方案包含模型配置管理、费用估算、配额调整和失败兜底等模块,最终集成到FastAPI接口中。实际应用表明,该方法有效降低了30%成本,提高了系统稳定性,并简化了新技能的扩展流程。

2026-03-03 08:35:23 1016

原创 把多技能 Agent 塞进企业微信:从 HTTP 服务到“群聊机器人”一篇打通(含完整示例)

本文介绍了如何将已有的HTTP Agent服务接入企业微信机器人,使员工能在日常群聊中直接使用AI助手。通过在企业微信后台配置回调地址,并新增一个轻量级适配层,实现消息格式转换,而无需改动原有Agent核心功能。具体步骤包括:配置企业微信应用信息、编写FastAPI适配器、调整Nginx反向代理、更新Docker环境变量等。该方法同样适用于钉钉/飞书等IM平台,只需替换对应SDK即可。最终实现员工通过@机器人即可调用多技能AI助手,无需额外打开网页应用。

2026-03-02 10:11:36 1283

原创 给多技能 Agent 装上「记忆宝库」:Redis 缓存加速与降本实战(能跑能省钱)

本文介绍如何为多技能AI助手添加Redis缓存层,以解决高频重复问题导致的Token浪费问题。通过缓存技能类请求(如FAQ、待办、日报等)的结果,实现毫秒级响应和零Token消耗。文章详细讲解了缓存键设计、TTL策略、Redis配置和代码实现,并展示如何集成到现有FastAPI服务中。该方案能显著降低Token消耗和响应时间,同时提供缓存命中率、条目数等监控指标。实施后,10次相同请求的Token消耗可降低90%,响应时间从800ms降至30ms以内。文章还讨论了缓存适用场景、注意事项及后续语义缓存的进阶方

2026-03-02 09:49:42 821

原创 给多技能 Agent 装上大脑皮层:智能降级 + 多模型路由完整实战

本文介绍了一个多技能Agent系统的优化方案,重点解决模型调用成本与服务质量平衡问题。通过引入智能模型路由和自动降级策略,系统能够根据不同任务类型、用户等级和配额情况自动选择最优模型(如gpt-3.5用于简单问答,gpt-4用于重要输出)。当遇到配额不足或模型故障时,系统会自动降级到低成本模型保证服务可用性。技术实现包括模型配置管理、配额调整算法、自动降级机制,并通过Prometheus/Grafana进行监控。该方案显著提升了系统在成本控制和服务稳定性方面的表现。

2026-03-02 09:41:17 1012

原创 让多技能 Agent 真正能上生产:监控、认证和成本控制一篇讲透

本文介绍如何为团队AI服务添加监控、认证和成本估算功能。通过Prometheus+Grafana实现服务监控,记录请求数、响应时长和Token消耗等指标;使用Nginx BasicAuth增加访问控制;基于Token估算API调用成本并展示。文章详细说明了后端埋点、Prometheus配置、Grafana仪表盘搭建以及Nginx认证的实现步骤。这些改进使原本简单的AI服务具备了生产环境所需的基本运维能力,包括可视化监控、访问控制和成本意识培养。所有功能通过Docker Compose一键部署,适合小团队快速

2026-03-02 08:59:11 731

原创 打造更稳可控的MiniAgent升级指南

文章摘要:本文介绍如何优化一个基础版AI Agent,使其更稳定可控。通过四个关键改进:1)输出改为自然语言+JSON双格式,便于系统集成;2)增加输出校验和危险建议过滤机制;3)谨慎添加工单创建功能,保持写操作安全;4)加入trace_id实现调用追踪。这些改进在保持简单架构的前提下,显著提升了Agent的实用性、安全性和可维护性,为后续扩展奠定基础。

2026-03-01 09:12:04 604

原创 大模型 Agent 实战:用 1 个接口 + 1 个工具,从 0‑1 搞定第一个可用 Agent

本文提供了一套1-2天内从零搭建最小Agent的实战方案。核心要点包括:1)聚焦单一具体任务(如接口报错诊断);2)采用极简三要素Prompt(角色-任务-格式);3)仅接入一个只读日志工具;4)构建包含输入处理、工具调用和LLM交互的最小Agent骨架;5)封装HTTP接口并提供简单反馈机制。特别强调0-1阶段应避免复杂架构、JSON输出要求和高危写操作,优先实现基础可用性,后续再迭代优化。该方案可实现输入报错日志即输出根因分析、修复建议和风险提示的基础功能。

2026-03-01 09:04:37 906

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除