- 博客(55)
- 收藏
- 关注
原创 OpenAI 发布 GPT-5.4 mini/nano:全面提升速度、性价比与开发体验
OpenAI发布两款轻量级模型GPT-5.4 mini和nano,主打高效低延迟应用。mini适用于对话、代码生成等场景,性能接近旗舰版且速度提升2倍;nano专注结构化任务处理。两款模型均支持40万tokens上下文,定价分别为$0.75/$0.20每百万tokens输入,显著降低使用成本。新模型已接入ChatGPT、GitHub Copilot和API,为开发者提供更灵活的AI解决方案选择。
2026-03-18 17:57:29
76
原创 2026大模型API中转网关选型指南:架构解析与主流方案对比
2026年AI大模型应用中,API中转网关成为解决多模型兼容与迁移成本的关键方案。主流方案包括147api(高兼容/低成本)、LiteLLM(开源私有化)、PoloAPI(多模型聚合)和星链4SAPI(高可用)。147api凭借零门槛接入、OpenAI接口兼容及高性价比成为推荐首选,适合敏捷开发;LiteLLM适合需深度定制的技术团队。通过Node.js示例展示147api极简接入,建议根据敏捷性、私有化或管理需求选择方案,网关架构可显著提升开发效率与系统弹性。
2026-03-18 14:14:02
138
原创 API账单总是对不上?三层对账法帮你厘清token、重试与缓存明细,再也不背锅
账单对不上的根源,在于中转层引入的复杂度导致了统计盲区。三层对账法的核心不是追求数字绝对相等,而是让每一笔差异都能被追溯和解释。日志先行:L0字段一个都不能少;维度拆细:按key、模型、线路分别比对;工具辅助:选择能提供明细导出和错误分桶的平台。最后,对账不是财务一个人的事,开发、运维、平台方需要建立常态化对账机制。当每一笔token的流向都清晰可见,你才能真正从“背锅侠”变成“成本掌控者”。
2026-03-17 14:09:45
304
原创 实测 Claude 1M 长文本与 API 价格策略:开发者如何避坑与降本增效
摘要:Claude推出100万Token上下文窗口正式版,取消阶梯定价,统一收费为输入3美元/百万Token、输出15美元/百万Token。开发者需注意自动压缩机制可能过早触发,建议调整环境变量避免上下文丢失。2026年3月13-27日期间提供双倍用量福利,适合进行高消耗任务测试。推荐使用147API等聚合服务降低成本,其价格约为官方5折并提供高并发支持。附Python代码示例展示如何高效调用Claude 4.6 Sonnet模型。
2026-03-16 14:26:29
435
原创 晚高峰才见真章:API大模型中转站稳定性怎么评
在将应用于生产环境时,主备方案的选择直接影响稳定性。生产建议主用,同时为核心业务配置两条可切换的备线(如),并将base_urlapi_keymodel等参数全部配置化,方便维护与切换。。按照文中建议的方法,进行一晚高峰的自测,基本即可验证平台表现。
2026-03-16 11:56:05
285
原创 10分钟搭建AI Agent系统:基于LangChain与147API的实战指南
本文介绍如何利用LangChain框架和147API构建高效AI Agent系统。文章指出当前Agent开发面临模型碎片化和调用成本高的挑战,147API提供50%成本优化、多模型路由和高可用性等优势。通过Python代码示例,展示了如何使用Claude Opus 4.6进行任务规划,GPT-5.4执行任务,仅50行代码即可构建具备多模态能力的智能体原型。这种组合方案兼具开发效率和成本效益,是升级AI基础设施的理想选择。
2026-03-13 16:28:42
511
原创 2026 年 OpenAI 兼容 API 中转站榜单评测:主流平台全解读(含迁移与成本对比)
摘要: 2026年API中转站/聚合网关仍是刚需,核心解决多模型协议差异、链路稳定性、成本控制与迁移痛点。测评基于5大维度(稳定性、适配性、性能、成本、交付)和3条底线(OpenAI兼容、流式支持、可配置切换)。147api因迁移成本低、多模型覆盖及成本可控位列TOP1,适合主线入口;星链4SAPI和PoloAPI以企业级稳定性见长,适合备线;OpenRouter和SiliconFlow分别侧重海外生态与开源推理。选型建议:主线备线搭配、环境变量切换、真实灰度测试。风险提示:警惕隐性成本、避免硬编码和手动模
2026-03-13 11:50:10
773
原创 数字化转型新课题:如何规避大模型应用中的“供应商锁定”风险?
企业AI应用面临供应商锁定风险,依赖单一模型厂商可能导致业务中断。第三方聚合API平台能统一标准、分散风险并简化合规流程。主流平台中,147API适合稳健企业,提供专线优化和合规采购;PoloAPI支持创新试验;星链4SAPI适用于海外低延迟场景。建议以147API为核心构建多元化AI供应链体系。
2026-03-12 16:52:37
507
原创 OpenClaw爆火背后:30k Star、4万实例裸奔、CVE-2026-25253漏洞分析
OpenClaw 无疑是 2026 年初最耀眼的开源明星,它开启了“人人拥有 AI Agent”的新时代。但从技术成熟度来看,它目前仍处于“Alpha”阶段。慎重。如果必须使用,请务必将其部署在隔离的容器环境(如 Docker)中,切断公网访问,并严格审查所有第三方 Skill 的代码。在这个技术狂奔的年代,保持一份清醒和审慎,或许比盲目跟风更为重要。
2026-03-12 14:23:55
310
原创 一觉醒来欠费一万二:GitHub 30k Star 的 OpenClaw 给我上了一课
OpenClaw暴露技术安全隐患:默认root权限和恶意Skill风险可能导致系统被破坏,如SSH密钥泄露。作者因死循环指令意外消耗1.2万元GPT-4额度,警示开发者需设置API限额、物理隔离环境并严格审核第三方Skill。建议简单任务使用低成本模型,关键决策再用GPT-4。该项目虽展示LLM操控系统的潜力,但目前仅适合实验环境,生产部署必须强化安全措施。
2026-03-11 16:29:10
432
原创 Claude JSON 稳定输出:Schema 校验与修复回路(Kotlin)
本文总结了确保AI模型稳定输出JSON格式数据的实践方法。关键点包括:1)严格限制输出为纯JSON格式,禁止额外文本和Markdown;2)设计包含字段定义、校验规则和错误兜底机制的提示词模板;3)实现三层解析兜底策略(直接解析、文本净化、二次修复);4)提供Kotlin代码示例展示如何实现JSON解析、数据校验和文本净化;5)建议将schema管理和校验逻辑集中到API网关层。文章强调通过严格的输入输出控制和多层容错机制,确保结构化数据输出的可靠性。
2026-03-11 15:41:15
503
原创 Kotlin开发者必看:如何使用147api低成本接入GPT-5.4与Claude 4.6
本文介绍了如何在Kotlin项目中通过147api中转服务接入GPT-5.4和Claude 4.6等大模型。147api具有完全兼容OpenAI接口、成本低、聚合多模型等优势。文章详细演示了使用openai-kotlin库的接入步骤,包括添加依赖、初始化客户端、调用聊天接口和切换模型。通过不到50行代码即可实现顶级AI模型的调用,解决了网络访问和成本问题,为开发者提供了一种高性价比的AI集成方案。
2026-03-10 16:06:52
341
原创 微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent
Copilot Cowork 的出现预示着 AI 开发的新范式。通过147API这样稳定且高性价比的中转服务,我们个人开发者也能以极低的门槛构建出具备 “Cowork” 能力的智能应用。与其担心被 AI 取代,不如现在就开始动手,打造你的 AI 队友。
2026-03-10 14:32:40
689
原创 Claude 4.6 深度解读:Agent Teams 怎么玩?用 147API + Python 十分钟实战
Claude 4.6 推出 Agent Teams 多智能体协作模式,通过 Team Lead 和 Teammates 分工协作处理复杂任务,支持 100 万 token 上下文和自适应思考能力。针对国内开发者接入难题,推荐使用 OpenAI 兼容的 147API 网关,提供稳定连接、统一管理和企业级结算。文章提供 Python 实战代码,10 分钟即可完成 Claude 4.6 接入,并分享常见错误排查方法,帮助开发者快速落地 AI 应用。
2026-03-09 14:23:08
784
原创 Claude 模型选型:Opus/Sonnet/Haiku + 成本/限速预算(Kotlin)
CSDN 上关于 Claude 的讨论,很多人卡在两个点:要么一上来用最贵的 Opus,账单肉疼;要么为了省钱用 Haiku,线上又出错、重试更多反而更贵。本文给一套“工程选型”的方法:先按任务类型定档,再用官方定价和 RPM/ITPM/OTPM 限速做预算,最后给一个 Kotlin 版“选型器”函数——输入任务类型、平均 in/out token、目标 QPS 与可接受延迟,就能给出推荐模型、max_tokens、并发上限与降级策略。文末顺带给出把这些逻辑下沉到网关层(例如 147api 这类统一接入服务
2026-03-09 10:18:27
682
原创 Claude API 429 限速治理:RPM/ITPM/OTPM + 令牌桶(Kotlin)
本文针对Claude API调用中的429限速问题,从工程角度解析三类限速指标(RPM/ITPM/OTPM),指出缓存命中可显著提升吞吐量。文章提供Kotlin实现方案,包括响应头解析、指数退避+抖动策略、令牌桶限流及输入/输出token预算控制。同时总结了CSDN上常见的三种429场景及解决方案:突发流量削峰、输入治理和输出优化。通过反推ITPM/OTPM上限计算并发量,并强调缓存机制对降低ITPM压力的重要性,最后附上可直接使用的Kotlin代码示例和线上排查清单。
2026-03-06 15:43:10
723
原创 2026 大模型 API 中转站选型:OpenAI 兼容、计费透明与稳定性怎么权衡
本文对比了2026年五大主流API中转站的优劣势,为AI应用开发者提供选型建议。147API因OpenAI兼容性强、成本可控成为快速落地的首选;4SAPI适合生产环境,提供稳定性和企业级支持;PoloAPI则侧重企业治理,具备用量统计和审计功能;SiliconFlow专注开源模型托管;聚合数据适合业务接口补齐。选型建议:优先考虑OpenAI兼容性,根据业务类型权衡稳定性与成本,并通过真实流量验证性能差异。对于快速迁移项目推荐147API,核心生产系统建议重点评估4SAPI和PoloAPI。
2026-03-05 17:00:14
808
原创 OpenClaw + 147API 实战:用 OpenAI 风格 统一网关,搭一条多模型智能体流水线
大模型更新越来越快,真正拖慢交付的往往不是 Prompt,而是接口差异、Key 管理、限流、流式和兜底这些工程细节。本文用 OpenClaw 负责流程编排与任务执行,用 147API 的 OpenAI 风格 `/v1` 入口统一调用口径,给出一段可参考的 Provider 配置和一份 Python 最小示例,帮助你把“采集 → 清洗 → 调度 → 输出”做成一条能长期维护的流水线。
2026-03-04 11:54:27
804
原创 2026大模型API聚合平台选型终极指南:从痛点分析到五大主流平台深度横评
2026年大模型API中转平台横评:147api成性价比最优选 摘要:随着大模型成为企业数字化基础设施,API接入面临网络不稳、支付困难、接口碎片化和成本高昂四大痛点。本文对比分析了147api、PoloAPI等五大主流中转平台,发现147api以官方50%的价格提供多模态统一接入、专线级网络优化和国内合规结算,在性价比、稳定性和易用性方面表现突出,成为最适合商业应用的选择。其他平台如PoloAPI适合企业级稳定需求,OpenRouter模型覆盖最全但价格较高,硅基流动则在开源模型实时推理上表现优异。
2026-03-03 15:40:39
649
原创 OpenClaw 部署实战:用 Docker 打造你的私人 AI 员工
OpenClaw 是 GitHub 上热门的 AI Agent 项目,可通过 Docker 快速部署,避免环境冲突问题。只需安装 Docker 并准备 API Key(如 Claude 3.5 或 GPT-4o),拉取镜像后配置 config.json 文件,启动容器即可运行。OpenClaw 支持文件操作、浏览器访问和命令执行,还能连接本地大模型(如 Ollama)。遇到问题可查看日志排查,轻松实现自动化任务处理。
2026-03-02 13:50:38
1631
原创 透明背景素材生成:Nano Banana 2 绿幕提示词 + FFmpeg 抠图管线
本文介绍了一种利用AI生成透明背景PNG素材的高效方法。通过绿幕技术配合FFmpeg自动抠图管线,可以批量生产透明素材,解决传统获取方式昂贵、耗时的问题。文章详细拆解了实现原理:首先让AI生成纯绿背景图片,再用FFmpeg的colorkey滤镜去除绿色背景并处理边缘溢出,最后自动裁切透明区域。该方法适用于轮廓清晰的实物素材,成本低至每个$0.1,但处理半透明物体时仍有局限。GitHub上已有封装好的开源工具,可一键完成整个流程。
2026-02-28 12:57:24
816
原创 技术评测:Gemini 3.1 Flash Image (Nano Banana 2) 图像生成质量分析
Google最新发布的Gemini 3.1 Flash图像生成模型在文本渲染、细节解析和语义一致性方面表现优异。测试显示,该模型能100%准确生成指定文本,保持粉笔书写风格;在8K分辨率下呈现清晰的复眼细节结构;还能在多轮对话中保持角色特征一致性。这些突破表明轻量级模型通过架构优化,可实现专业级的图像生成质量,特别适合电商设计和广告投放等商业应用场景。
2026-02-27 13:20:46
1042
原创 Anthropic 蒸馏指控技术分析:AI 模型 API 输出有没有知识产权?
Anthropic 指控 DeepSeek、月之暗面、MiniMax 通过 Claude API 进行知识蒸馏。本文从蒸馏技术原理、API 防御方案、模型输出版权归属三个角度分析,并讨论对开发者调用 AI API 的实际影响。
2026-02-26 16:58:26
607
原创 Gemini 3.1 Pro 三档思考等级到底该怎么选
Gemini 3.1 Pro新增MEDIUM思考等级,填补了LOW和HIGH之间的空白。thinking_level参数控制模型内部推理的token数量,影响回答质量、响应速度和成本。LOW(200-500 token)适合简单任务,延迟最低;MEDIUM(2000-8000 token)是日常默认档,平衡成本与性能;HIGH(最高32768 token)用于复杂推理任务,但成本最高且不一定更好。实际使用建议:默认MEDIUM,简单任务用LOW,仅必要时用HIGH,避免批量任务使用HIGH。需注意默认
2026-02-25 14:53:14
1044
原创 GLM-5 Pro 套餐刚买就限速,到底怎么回事
摘要:GLM-5 API发布后立即出现用户投诉,反映Pro套餐刚使用就被限速。分析显示GLM-5存在三个限速层面:QPS限制、并发限制和Token速率限制。相比GLM-4.7,GLM-5更易触发限速,主要因计算成本高和发布初期流量洪峰。建议采取模型降级、减少Token消耗、控制请求频率和分时段使用等策略。智谱需改善限速说明和API反馈机制,用户可考虑多平台LLM Router方案平衡成本与可用性。
2026-02-12 13:48:23
1921
原创 别再用 ToDo 糊弄 AI:用 DAG 把 Claude 团队“锁“在正确顺序里
《多Agent协作中的DAG任务编排:Claude Code新功能解析》 摘要:多Agent协作开发中最突出的问题是任务跳步执行,导致各环节脱节。Claude Code v2.1.16引入的Tasks功能通过有向无环图(DAG)管理任务依赖关系,强制保证执行顺序。相比传统ToDo列表,DAG具有强制约束力,避免Agent合理化跳步行为。该功能还实现持久化状态管理,支持断点续接。典型适用场景包括:多Agent参与、存在复杂依赖关系的项目(如全栈开发),其中数据库迁移、API开发等任务需要严格串行
2026-02-11 16:03:34
832
原创 Standard 还是 Fast 还是 Extended?Claude Opus 4.6 三种模式选错了就是烧钱
Claude Opus 4.6提供三种运行模式:Standard(均衡)、Fast(快速但质量略降)和Extended Thinking(深度分析但耗时)。Extended模式通过设置思考预算token数控制思考深度,适合高难度任务。不同模式在速度、质量和成本上各有侧重:日常任务用Fast,一般开发用Standard,疑难问题用Extended(16K-32K token),学术研究用Extended(64K+)。API调用时需注意思考预算与上下文窗口的平衡,按场景灵活切换模式可优化成本效益。
2026-02-10 14:43:46
1154
原创 5 秒特效从 3000 元降到 3 块钱:Seedance 2.0 正在重写影视制作的成本公式
AI技术正在颠覆影视制作行业。5秒特效镜头成本从3000元骤降至3元,降幅达99.9%。低端影视后期(如电商视频、宣传片)首当其冲,AI可快速生成2K分辨率、音画同步的视频,成本仅传统报价的1%。高端制作因画质和可控性要求暂时安全,但中端市场将受挤压。AI可大幅降低90分钟影视项目的成本和时间,催生AI视频导演、质检师等新职业。行业正面临底层经济逻辑的根本性变革,"够用"级内容的生产成本已降至极低水平。
2026-02-09 18:55:24
1286
原创 Opus 4.6 的 Benchmark 该怎么看:方法学偏差与你自己的评估
摘要:大模型厂商发布的benchmark成绩往往存在设计、运行条件和报告方式的差异,不能直接作为决策依据。以Anthropic发布的Opus 4.6为例,其Terminal-Bench分数受不同工具链影响,Humanity's Last Exam成绩依赖额外工具支持,GDPval-AA的144 Elo优势仅代表70%场景领先。更值得关注的是,该模型在核心指标SWE-bench和MCP Atlas上出现回退。建议用户建立自己的评估体系:收集20-50个真实任务样本,定义多维评分标准,进行对比测试并关注失败模式
2026-02-06 17:06:43
1031
原创 从 OpenClaw RCE 漏洞看本地 Agent 安全:你的 Shell 权限正裸奔吗?
OpenClaw(前身是 Clawdbot/Moltbot)最近火得一塌糊涂。GitHub 星数飙升到 149k,大家都在感叹终于有个开源版的"贾维斯"了。你可以让它帮你发邮件、整理文件、甚至控制智能家居。但就在几天前,爆出的 CVE-2026-25253 漏洞给这股热潮浇了一盆冷水。CVSS 评分 8.8,高危。简单说,如果你在用老版本的 OpenClaw,黑客只要发给你一个链接,你点开,你的电脑可能就归他了。
2026-02-04 11:20:30
1218
原创 60,000 星的代价:解析 OpenClaw 的架构设计与安全教训
OpenClaw项目GitHub星标激增但暴露严重安全隐患:默认绑定localhost的设计在容器化环境中失效,导致上千实例暴露公网,其中一起案例造成1.8亿AI令牌被盗。核心问题在于单点架构将所有敏感功能集中,使攻击者一旦突破即可完全接管系统。文章指出AI代理的特殊风险在于能执行自然语言指令,建议必须默认开启认证、拆分功能模块、实施最小权限原则。随着项目热度持续攀升(18万星标),如何在易用性与安全性之间取得平衡成为亟待解决的难题。
2026-02-03 11:44:13
1194
原创 GenieRedux 本地部署指南:用 RetroAct 数据集训练你的第一个世界模型
《GenieRedux世界模型训练指南》摘要:本文详细介绍了开源世界模型框架GenieRedux的部署流程。硬件要求至少16GB显存GPU和32GB内存,推荐多卡配置。安装过程包括克隆仓库、配置Conda环境和获取游戏ROM(需自行解决版权问题)。训练分三步:生成预训练游戏数据、训练画面分词器(约10-20小时)和训练动力学模型(1-3天)。文章提供了参数调整建议、常见问题解决方法,并指出该框架虽效果不及原版Genie,但代码结构清晰,适合学习世界模型的token压缩、帧预测和动作推断等核心机制。
2026-02-02 10:53:21
512
原创 内容审核进入交互时代:当生成的是可探索世界,过滤器该放在哪一层
摘要 世界模型的内容审核面临新挑战:传统"先生成后审核"模式无法适应实时交互特性。Project Genie采用输入层提示词过滤和策略层动态调整,但仍存在绕过漏洞和计算成本问题。分层治理架构可能是解决方案,包括黑名单拦截、视觉相似度检测、行为约束和事后审查。最终需在技术限制与用户体验间取得平衡,通过案例积累逐步完善规则。当前产品限制(付费用户、60秒限时等)正是为缓解治理压力而设。
2026-01-30 16:39:36
776
原创 ClawdHub 技能市场的信任漏洞:下载量能被刷,“官方推荐“能被骗
AI技能平台ClawdHub存在严重安全漏洞:研究员通过伪造下载量使恶意技能登上热门推荐,48小时内23名用户安装。该平台缺乏代码审查、下载量验证和作者信誉系统,使攻击者可轻易植入窃取API密钥的恶意指令。更复杂的供应链攻击和依赖污染手法可能造成更大危害。建议用户安装前检查作者历史、查看源码并限制权限,同时官方正计划改进统计方式和引入安全扫描。这暴露出AI Agent生态缺乏成熟信任基础设施的问题,其风险远超传统软件包。
2026-01-30 11:05:03
1368
原创 改名后的24小时:npm 包抢注如何劫持开源项目供应链
文章详述了攻击者利用30分钟时间窗口发布恶意代码,窃取用户敏感信息的过程。攻击方式包括直接抢注、相似名称劫持、依赖注入和利用npm生命周期脚本自动执行恶意代码。文章强调,开源项目改名时应先注册新名称再公布,建议使用npm scope组织命名空间、提供完整性校验哈希、启用代码签名及设置CI自动监控。用户应延迟安装新包、验证发布者并锁定版本。事件暴露了npm等包管理器“先到先得”命名机制的脆弱性,需多方协作加强供应链安全。
2026-01-29 09:53:57
1042
原创 “不读代码“的开发哲学:Vibe Coding 是终极生产力还是定时炸弹?
摘要:Peter Steinberger展示了AI编程(Vibe Coding)的极致形态,一天提交688次commit,其中296次来自AI项目Clawdbot。与传统开发流程不同,Vibe Coding通过自然语言描述需求,AI生成代码并直接提交,将开发时间从数天缩短至数小时。然而,研究发现仅10.5%的AI生成代码是安全的,常见漏洞包括硬编码敏感信息、SQL注入、路径遍历等。AI编程还导致技术债务累积,如代码重复、命名不一致和过度复杂实现。这种高效但高风险的开发模式引发了对软件安全性和质量的担忧。(1
2026-01-28 14:23:55
1693
原创 Shodan 扫出 923 个暴露网关:Clawdbot 安全事故分析与防护方案
2026年1月,安全研究人员在 Shodan(互联网设备搜索引擎)上发现 923 个 Clawdbot 控制台暴露在公网,无需认证即可访问。技术工具的门槛降低了(一条命令就能装 Clawdbot),但安全知识的门槛没变。大量非技术背景的用户涌入,他们不懂防火墙、不懂端口、不懂 NAT。如果对话中涉及敏感信息(密码、账号、内部资料),全部泄露。如果有结果,说明你已被 Shodan 索引(全世界可见)。就能「克隆」你的 Signal 账号,接收你的所有消息。,外网无法直接访问(除非配置端口转发)。
2026-01-27 14:19:08
1542
原创 用 clawdbot 做自动化:任务编排、触发器与可观测性
clawdbot是一款开源AI助手,能操作浏览器、调用API、访问shell,强调沙盒隔离和系统化能力。文章从编排、触发、可观测性三方面分析如何将其从"能用"升级为"敢长期跑"的自动化系统:1)任务编排需拆解阶段并设置护栏;2)通过cron、事件和人工触发实现自动化运转;3)建立日志、指标、追踪、审计的可观测性闭环。建议从低风险场景起步,逐步构建可靠的自动化底座,关键在于"可控"而非单纯的智能表现。
2026-01-26 16:50:00
1615
原创 Prompt Injection 怎么防:攻击面与工程防线(含安全 Checklist)
大模型上线后的安全风险主要来自Prompt Injection(提示注入),即用户通过输入或外部文档植入恶意指令,诱导模型越权操作。防御需分层处理:1)输入层过滤敏感内容;2)提示词明确信任边界;3)RAG场景净化数据源;4)工具调用实施白名单与最小权限;5)输出层脱敏敏感信息;6)持续监控异常行为。核心原则是将外部内容视为不可信数据,通过工程手段(如权限控制、审计日志)而非单纯依赖模型判断来降低风险。关键措施包括工具层熔断机制、写操作幂等性,以及红队测试注入案例库。
2026-01-23 11:03:08
1316
原创 幻觉怎么治:引用/约束/拒答/工具验证的组合拳(策略矩阵 + Checklist)
大模型幻觉问题的工程解决方案 大模型上线后常出现“幻觉”问题,如编造事实、虚假引用等,难以通过Prompt彻底解决。本文提出一套工程化组合拳: 引用(Grounding):强制基于证据回答,标注来源,无证据时拒答 约束(Constraints):通过结构化输出、范围限定减少自由发挥 拒答(Refusal):证据不足时明确告知并引导用户补充信息 工具验证(Tool):可验证数据(如订单、计算)交由工具处理 关键实施步骤:建立证据追溯机制→强制引用校验→设置拒答流程→集成验证工具。
2026-01-22 10:44:12
1344
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅