- 博客(135)
- 资源 (6)
- 问答 (1)
- 收藏
- 关注
原创 别再让用户盯着空白等!AI Skill 长耗时执行的优雅处理方案
核心原则总结永远不要沉默,即使没有进展,也要告知用户状态提供可操作信息 :进度数字比模糊描述更有价值优雅处理失败”:失败时提供恢复选项,而不是终结对话尊重用户时间*:预估时间并遵守承诺
2026-03-16 09:37:06
347
原创 串行调用 3 个 API 总翻车?这 3 种错误处理策略让 Skill 稳如泰山
如何正确处理API串行调用的局部失败 摘要 本文探讨了处理串行调用三个外部API时的错误处理策略。常见错误是使用单一的try/catch包裹所有调用,导致无法区分失败步骤和无法部分恢复。文章提出了三种策略: 强依赖链:适用于步骤严格依赖的场景,任一失败即中止,但会明确标注失败位置并提供部分数据 弱依赖降级:适用于独立步骤,使用Promise.allSettled并发执行,失败步骤用默认值填充 带重试机制:为不稳定API设计,实现指数退避重试和错误类型区分 关键是把错误结构化返回给Brain系统,包括失败位置
2026-03-16 09:28:51
205
原创 OpenClaw 为什么弃用 HTTP 轮询?WebSocket 才是 Agent 实时通信的答案
Agent的工作模型倒逼技术选型因为Agent的工作方式是**流式的、双向的、多客户端的**——而这三点,HTTP轮询从设计上就满足不了。
2026-03-14 12:44:10
431
1
原创 OpenClaw 的 JSON 之殇:格式一错,Agent 全线崩溃
本文探讨了OpenClaw系统中结构化JSON输出的关键作用和优化方法。主要内容包括: JSON解析的重要性:OpenClaw的Skill调度完全依赖LLM输出的结构化JSON,格式错误会导致整个任务链中断。 关键应用场景:任务路由、Skill间数据传递和Heartbeat任务执行都依赖稳定的JSON格式。 输出不稳定原因:LLM本质是文字接龙,容易出现多余文字、格式错误等问题。 优化方案: 设计包含明确格式说明、Few-shot示例和强约束语言的Prompt 采用低Temperature设置 在Skill
2026-03-14 11:19:56
423
原创 OpenClaw Skill 与 OpenAI Function Calling 深度对比:一文看懂本质差异
本文对比了OpenAI Function Calling和OpenClaw Skill的核心差异。Function Calling通过JSON Schema定义结构化接口,由LLM决定调用时机并生成参数,开发者代码负责执行;而Skill通过自然语言说明书传递领域知识,LLM自行决定如何调用底层工具完成任务。前者强调可靠性和精确性,适合确定性任务;后者更具灵活性,适合复杂场景。两者可混合使用,底层用结构化Tool保证可靠性,上层用Skill提供语义指导,平衡智能与可控性。随着LLM能力提升,自然语言定义的Sk
2026-03-13 09:41:31
589
原创 OpenClaw 提示词注入:你的 AI 助理正在偷偷泄露密钥
本文探讨了OpenClaw面临的提示词注入安全风险及其防御策略。提示词注入利用LLM无法区分用户指令和外部数据中的恶意指令这一结构性漏洞,可能造成数据泄露等严重后果。文章通过邮件劫持案例展示了具体攻击路径,并指出该问题的根治难度在于自然语言中指令与数据的边界模糊。针对这一挑战,提出了四层纵深防御方案:输入标注隔离、输出审计、高危操作人工确认和最小权限原则。最后给出不同场景下的部署建议,强调安全是风险管控的艺术而非绝对防护。核心观点是承认LLM的固有局限,通过多层防御架构在享受AI便利的同时控制安全风险。
2026-03-13 09:24:27
456
原创 给 AI Agent 上 “安全锁”:OpenClaw 龙虾最小权限设计实战
本文探讨了如何为OpenClaw龙虾AI实施最小权限设计。文章首先阐述了最小权限原则的核心思想:Agent在任何时刻拥有的权限不应超过完成当前任务所必需的最小集合。接着分析了OpenClaw当前粗粒度权限模型的不足,提出了三个维度的改进方案:操作权限分离(读写分离)、资源范围约束(如邮件标签过滤)和时机约束(Just-in-Time权限)。最后给出了权限设计的检查清单,强调终极目标是实现权限与用户意图的严格对齐。通过这种设计,可以降低攻击面、限制错误影响、提高可审计性,同时增强用户信任。
2026-03-12 09:34:35
792
原创 OpenClaw 上下文管理原理:工作记忆、摘要记忆与向量检索
本文探讨了AI Agent(如OpenClaw)如何有效管理Context Window限制的问题。文章指出Context Window就像Agent的"工作记忆",会被系统提示、对话历史、工具定义等多重因素争抢。主要解决方案是建立分级记忆系统:工作记忆保留最近对话,摘要记忆压缩早期对话存入文件,语义记忆通过向量数据库实现按需检索。具体工程手段包括按需加载Skill、历史截断、工具结果压缩和分模型路由。文章强调Context管理本质是为LLM建立"外脑"系统,将信息卸
2026-03-12 09:24:48
467
原创 OpenClaw vs 普通 API 调用:从编排者到委托者的根本性范式转变
本文对比了传统API调用与OpenClaw智能代理的核心区别。传统API需要开发者手动编排执行流程,而OpenClaw通过ReAct推理循环,让LLM动态决定API调用顺序和错误处理。两者的本质差异在于确定性vs灵活性:传统API适用于规则明确的场景,OpenClaw则擅长处理模糊、多步骤任务。对开发者而言,重点从编写业务逻辑转向设计清晰安全的接口契约,以适应AI代理的调用方式。这种范式转变将开发角色从"流程编排者"升级为"能力提供者"。
2026-03-11 15:38:33
435
原创 OpenClaw 持久化记忆原理深度拆解:本地存储与向量数据库的局限与最优解
本文探讨了OpenClaw的持久化记忆系统原理及其优化方向。OpenClaw采用本地Markdown文件作为记忆存储,具有简单透明、可编辑的优势,但面临上下文窗口限制、检索效率低和并发写入问题。向量数据库虽能实现语义检索和海量存储,却存在chunking策略困难、精确检索不足和维护成本高的局限。作者提出分层存储的混合方案:热层(内存)处理当前会话,温层(Markdown/SQLite)存储结构化信息,冷层(向量数据库)保存历史数据。最终结论指出,没有完美的单一方案,应根据实际需求在简单性、精确检索和语义理解
2026-03-11 10:41:49
843
原创 制约 OpenClaw 最关键的不是框架,而是 LLM 本身
本文探讨了当前LLM(大语言模型)在构建OpenClaw等Agent系统时面临的三大核心瓶颈。首先分析了"用语言理解替代控制流"带来的本质限制,指出最制约系统上限的三大问题:长上下文中的注意力退化、跨步骤状态一致性不足,以及校准能力("我不确定"表达)的缺失。文章详细阐述了每个瓶颈的具体表现和工程缓解方案,如结构化状态对象传递、关键信息显式提醒等,同时强调这些方案只能部分缓解问题。最后指出,LLM的这些能力边界决定了Agent当前更适合作为"能力放大器&qu
2026-03-10 09:53:45
492
原创 为什么提示词注入在 OpenClaw 里比普通 LLM 危险 10 倍?
本文探讨了提示词注入攻击在OpenClaw等AI代理系统中的特殊危险性。相比普通聊天场景,提示词注入在AI代理中危害更大,因为代理会将恶意指令转化为实际行为而非仅输出文字。文章通过类比SQL注入解释了该攻击原理,并以真实案例展示了攻击路径。作者指出这是LLM架构的结构性弱点,并提出了多层防御方案,包括输入过滤、权限最小化、人工确认等。最后强调在LLM无法区分数据和指令的前提下,设计安全的代理系统是AI工程的重要挑战。
2026-03-10 09:45:40
483
原创 语义检索 vs 精确匹配:为什么 OpenClaw 需要向量数据库
MySQL 能告诉你"哪篇文章标题里有’机器学习’这个词",向量数据库能告诉你"哪篇文章和你现在读的这篇意思最相近"——前者是关键词匹配,后者是语义相似度搜索。这句话抓住了两者最本质的差异。MySQL 存的是结构化数据,查询是精确的、基于规则的;向量数据库存的是"意思"(数学上叫向量),查询是模糊的、基于相似度的。在 AI Agent 的记忆系统里,你需要的恰恰是后者——不是"找到三个月前那条包含’会议’关键词的记录",而是"找到和用户当前问题语义最相关的历史对话"。
2026-03-09 09:35:10
390
原创 Skill 与 Tool 彻底分清:Agent 能力的底层原理
本文探讨了AI开发中的"Skill"概念,指出Skill与传统函数的关键区别在于其被"理解"而非"执行"的特性。Skill作为AI的操作说明书,通过自然语言描述让AI自主判断何时使用,解决了传统编程在意图不明确、上下文多变等场景下的局限性。文章详细解析了Skill的执行链路、与Tool的区别,以及优秀Skill应包含的约束文档和私有上下文。同时揭示了Skill代表着编程抽象层次的提升,但也带来了测试非确定性接口的新挑战。
2026-03-09 09:24:35
597
原创 告别“你问我答”!OpenClaw和传统Chatbot的本质差距,藏在这3个维度里
OpenClaw与传统Chatbot存在本质区别:OpenClaw是主动执行任务的AI助手,而Chatbot仅被动回答问题。核心差异体现在三个方面:1)持续性 - OpenClaw以守护进程方式24/7运行,具有跨会话记忆;2)主动性 - 通过Heartbeat机制自主检查任务;3)执行力 - 可调用工具执行实际操作。架构设计上,OpenClaw采用ReAct推理循环、不强制人工确认的自主机制和本地优先架构,使其能像"全权助理"般完成复杂任务,而非仅提供信息。这种设计带来更强自动化能力,
2026-03-08 17:31:52
455
原创 什么是OpenClaw?为什么它是一个能真正“干活“的AI助理?
OpenClaw 是一个**能真正执行任务的AI助理**,而不是仅仅提供对话或建议的聊天机器人。你通过Telegram、WhatsApp等消息平台给它发送指令,它会在后台自动执行搜索、发邮件、查日历等实际操作,并将结果直接返回给你。
2026-03-08 17:18:57
343
原创 模型越大越强?一文读懂大模型的能力涌现到底是什么
本文探讨了大语言模型的能力扩展现象(Emergent Abilities),即当模型规模达到临界点时突然展现全新能力的现象。文章指出,这种能力涌现源于参数空间的丰富性、数据多样性的充分利用和计算资源的杠杆效应,并类比为物理学的相变过程。典型涌现能力包括链式思维推理、上下文学习、多步规划和元认知等。研究揭示了模型规模与智能水平的非线性关系:小模型仅能完成基础任务,而大模型可自发形成专业化模块,实现复杂推理。这种现象既降低了AI开发门槛、拓展了应用场景,也带来了不可预测性和安全挑战。未来需要建立更好的理论框架来
2026-03-07 10:35:43
352
原创 为什么大模型能记住那么多知识?从参数到涌现能力讲透
模型架构的能力增强(Model Scaling)是指通过增加神经网络的参数数量、训练数据规模或计算资源来提升模型性能的现象。这种增强不仅仅是简单的"量变",更常常带来意想不到的"质变"——模型开始展现出在小规模时完全不具备的新能力。想象你有一个学生,当他只读过几本书时,只能回答简单的问题。但当他读过的书越来越多,大脑中的神经连接越来越复杂时,他不仅能回答更难的问题,甚至开始能够进行逻辑推理、创作诗歌、解决从未见过的数学题。
2026-03-07 07:00:00
277
原创 Encoder-Decoder 架构详解:为什么机器翻译非要用两个网络?
本文介绍了Encoder-Decoder架构及其在机器翻译等任务中的应用。该架构由编码器和解码器两部分组成,前者负责理解输入文本,后者生成输出文本,通过分工合作实现复杂的序列转换任务。文章详细阐述了其工作原理,包括注意力机制的作用,并回顾了从RNN到Transformer的模型演进历程。此外,还列举了该架构在翻译、摘要等场景的实际应用,分析了当前面临的挑战如计算资源需求高、长序列处理困难等问题,并展望了未来发展方向,包括更高效的注意力机制、多模态处理等。这种先理解再表达的双网络配合模式,已成为处理序列到序列
2026-03-06 09:45:00
374
原创 什么是Decoder-only架构?为什么GPT系列专注于预测下一个词?
本文介绍了Decoder-only架构及其在GPT系列模型中的应用。这种架构专注于自回归文本生成,通过单向注意力机制预测序列中的下一个词,模拟人类写作过程。文章对比了Decoder-only与Encoder-only架构的特点,分析了GPT的训练方式(自回归语言建模+微调)及其在聊天机器人、内容创作等场景的应用。同时指出了该架构的优势(强大的生成能力)与挑战(可能产生幻觉),并探讨了GPT系列演进历程和未来混合架构的发展趋势。最后强调,Decoder-only架构的成功证明专注于特定领域做到极致的重要性。
2026-03-06 09:31:05
384
原创 BERT为什么只“读“不“写“?一文搞懂Encoder-only架构
本文介绍了Encoder-only架构(如BERT)的特点和应用。这类模型专注于文本理解而非生成,通过双向注意力机制全面把握上下文语义。文章对比了Encoder-only与Decoder-only架构的区别,阐述了BERT通过掩码语言建模和下一句预测的训练方式。Encoder-only模型适用于搜索引擎、内容审核等理解任务,但存在无法生成文本、输入长度受限等局限性。这种架构在需要深度理解文本的场景中表现出色,是AI领域的重要技术方向。
2026-03-05 10:10:16
595
原创 当参数突破千亿:大数据+大模型范式与AI涌现能力的秘密
《大数据与大模型:AI发展的范式转变》摘要 本文系统阐述了"大数据+大模型"这一AI发展新范式。该范式通过同步扩大训练数据规模(万亿级词元)和神经网络参数量(千亿级),产生了显著的协同效应。研究发现,当模型规模达到临界点时,会涌现出小模型不具备的新能力,如复杂推理和代码生成。这种范式虽带来通用性强、知识覆盖面广等优势,但也面临计算资源消耗大、可解释性差等挑战。目前广泛应用于AI助手、企业知识管理等领域,未来将向多模态融合、绿色AI等方向发展。
2026-03-05 09:35:25
451
原创 什么是外在评测?为什么最终还是要看模型在实际任务中的表现?
📌 外在评测(Extrinsic Evaluation)是AI模型评估的核心方法,它通过将模型部署到真实应用场景中,直接衡量其业务价值而非技术指标。与内在评测(如BLEU分数、准确率等)相比,外在评测聚焦三大优势: 1️⃣ 真实性 - 在完整系统中评估用户满意度、任务效率等实际表现 2️⃣ 业务导向 - 直接关联商业KPI如转化率、收入增长 3️⃣ 综合性 - 考量数据质量、用户行为等全链路因素 典型应用包括:搜索引擎通过A/B测试优化用户体验,Netflix以观看时长替代准确率评估推荐系统。尽管存在成本
2026-03-04 09:16:31
408
原创 AI的‘温度‘旋钮:为什么调高温度能让机器写出更疯狂的创意?
在使用大语言模型时,你可能经常听到"temperature"(温度)这个参数。它就像AI的"创造力调节器",通过调整这个看似神秘的数字,我们就能控制AI输出是保守稳妥还是天马行空。那么,temperature到底是什么?它又是如何影响AI的创造力的呢?temperature参数本质上是一个控制概率分布平滑度的超参数。要理解这一点,我们需要先了解大语言模型是如何生成文本的。大语言模型在生成每个词时,都会计算词汇表中所有可能词的概率。“猫”:0.6“狗”:0.3“鸟”:0.1。
2026-03-04 09:02:44
634
原创 为什么AI不需要考虑所有可能性?Top-K采样的智慧选择
本文介绍了top-k采样技术及其在AI文本生成中的应用。top-k采样通过仅考虑概率最高的前k个候选词,在保持生成合理性的同时增加多样性。文章详细解析了其工作原理,包括排序、筛选、重归一化和随机选择四个步骤,并探讨了k值选择的关键性。对比了top-k采样的优劣势,指出其在避免不合理输出与平衡多样性方面的优势,但也存在参数调优困难等局限。最后,文章提及了top-k采样在聊天机器人、内容创作等场景的实际应用,并介绍了其演进版本top-p采样如何动态调整候选词数量。该技术已成为现代语言模型生成高质量文本的重要方法
2026-03-03 09:38:12
529
原创 为什么给AI一点‘混乱‘反而让它更聪明?随机采样的神奇力量
随机采样是AI文本生成中引入随机性的策略,通过概率分布选择词语而非总是选择最优解,使输出更自然多样。核心参数温度(Temperature)控制随机程度,配合Top-k/Top-p采样避免失控。这种技术让AI对话更接近人类表达,但也可能产生不连贯内容。应用包括创意写作、聊天机器人等,现代系统常结合束搜索等混合策略平衡创造性与可控性。随机采样解决了AI输出单调的问题,但需在参数调优与结果质量间找到平衡。
2026-03-03 09:20:41
597
原创 传话游戏的AI版:为什么RNN记不住开头说了什么
RNN的长距离依赖问题指循环神经网络难以保持远距离序列信息完整性的缺陷。在自然语言处理中,理解长句需要跨越多个词建立联系(如代词指代),但RNN通过隐藏状态传递信息时,随着时间步增加会出现梯度消失/爆炸问题,导致关键信息衰减或失真。这一问题影响机器翻译、文本生成等任务的表现。解决方案包括引入LSTM/GRU的门控机制、采用Transformer的自注意力架构,以及使用残差连接等技术。虽然RNN逐渐被更先进模型取代,但理解这一核心问题对掌握序列建模原理具有重要意义。
2026-03-02 09:57:39
577
原创 一文读懂 n-grams:大模型出现前,语言模型就靠它
在深度学习时代之前,让机器理解人类语言是一个巨大的挑战。早期的AI系统面对文本时,就像一个完全不懂中文的外国人看一本中文小说——每个字都认识,但组合起来就懵了。
2026-03-02 09:47:03
672
原创 玩转 PySpark 自定义函数:UDF、UDAF、UDTF 全解析与实战
本文介绍了PySpark中三类用户自定义函数的实现与应用:UDF(用户自定义标量函数)、UDAF(用户自定义聚合函数)和UDTF(用户自定义表函数)。首先搭建了包含Python 3.10、PySpark 3.5.1等组件的开发环境。UDF部分演示了分数等级转换函数;UDAF实现了去极值均值计算,有效抵抗异常值干扰;UDTF展示了将句子拆分为多行分词结果的表函数。文章包含完整代码示例,展示了三种函数在DataFrame API和SQL中的调用方式,以及具体的应用场景和输出效果。
2026-02-27 16:49:32
797
1
原创 大模型到底「有多困惑」?一文彻底搞懂 Perplexity
困惑度(Perplexity,PPL)是评估大语言模型性能的核心指标,用于量化模型对文本序列的预测不确定性。数值越低,表示模型预测越准确。PPL通过交叉熵计算得出,理论最小值为1,实际应用中常见范围为5-50(现代模型通常在5-15)。该指标在模型预训练中用于监控学习效果和过拟合,也是学术对比的黄金标准。但需注意PPL值受测试集、词表等因素影响,跨场景对比无意义。PPL解决了人工评估的主观性、低效性问题,为模型优化提供了客观量化依据。
2026-02-26 20:38:08
641
原创 一文搞懂模态编码:AI 是如何把图片、文字、声音“翻译“成数字的?
本文系统介绍了模态编码的概念与方法论。模态编码旨在让计算机统一处理文本、图像、音频等不同形式的信息,通过编码将其转化为机器可处理的数字向量。文章详细解析了"模态"和"编码"两个核心概念,阐述了各模态(文本、图像、音频、视频)的编码方法,并列举了模态编码在AI应用中的广泛用途。最后指出当前面临的挑战(模态异质性、数据对齐成本等)和未来向通用多模态基础模型发展的趋势。
2026-02-23 01:45:32
488
原创 从 26 个字母到 50000 个 Token:现代 LLM 的语言密码
本文系统介绍了LLM中Token的概念与计算方式。Token是将文字转换为计算机可处理数字的基本单位,不同于单词或字符,而是通过BPE算法从文本中统计学习出的子词级编码。文章对比了不同语言的Token消耗差异,指出中文表达相同内容所需的Token数通常是英文的2-3倍,导致使用成本更高。最后推荐了OpenAI Tokenizer工具来准确计算文本的Token数量。理解Token机制对优化LLM使用成本具有重要意义。
2026-02-23 00:56:03
784
原创 10分钟搞懂向量数据库:AI时代的新型搜索引擎
想象你在使用 ChatGPT 处理工作文档。你上传了一份 200 页的公司手册,然后问"我们的年假政策是什么?"AI 瞬间就能找到相关段落并回答你。这背后不是把整个手册都塞进 AI 的"大脑",而是用了一种特殊的数据库——**向量数据库**。它能理解你问题的"意思",然后在海量信息中找到语义最相关的内容。
2026-02-22 02:05:36
548
原创 向量嵌入入门:给每个词分配一个“数字指纹“
本文介绍了向量嵌入的基本概念和应用。向量嵌入通过将词语、句子或物体转化为多维数字向量,使计算机能够理解语义关系。相似事物在向量空间中距离更近,支持语义搜索、推荐系统等应用。文章解释了向量嵌入的工作原理、常见类型(词嵌入、句子嵌入等)和实际应用案例,并提供了动手体验的代码示例。向量嵌入技术是AI理解语义信息的关键基础。
2026-02-17 23:39:23
647
原创 当 AI 开始编造事实:Text2SQL 中的幻觉陷阱与破解之道
📌 AI幻觉:大语言模型的"虚构"问题解析 摘要:AI幻觉指大语言模型以自信流畅的语气生成事实上错误或虚构内容的现象,如杜撰论文、编造判例等。其危险性在于错误信息往往包装专业,难以辨别。技术成因包括训练数据局限、缺乏知识验证机制及概率采样随机性。行业通过RLHF训练优化、RAG架构改进(检索增强生成)及产品级保障(信息溯源、多轮检查)进行缓解。关键结论:AI幻觉目前无法根除,用户需保持批判思维并对关键信息核验。该现象揭示了大模型"语言模式生成"而非"事实查
2026-02-17 23:35:44
754
原创 一文读懂 MoE:大模型如何用“专家分工“实现降本增效
MoE(混合专家)模型通过将多个"专家"网络与门控网络结合,实现了高效的大模型训练。门控网络根据输入选择最匹配的Top-K专家进行加权计算,既保留了大规模模型的参数容量,又通过稀疏激活降低了计算成本。MoE通常替换Transformer中的FFN层,保持注意力机制不变。虽然MoE解决了传统稠密模型的计算效率问题,但也面临负载均衡和高资源需求等挑战。这种架构为超大规模AI模型提供了一种高效的解决方案。
2026-02-15 23:59:36
613
原创 一文搞懂 AI Agent:从“问答机器“到“数字员工“的进化
AI Agent(智能体)是一种能够自主感知环境、制定计划并采取行动的人工智能系统,与传统AI工具不同,它能主动拆解任务、调用工具并持续优化。AI Agent具备感知、规划、工具使用和记忆反思等核心能力,不同于单轮反应的聊天AI,它能进行多轮自主思考。典型应用包括个人效率、软件开发、企业服务和创意生产等领域。技术架构上采用ReAct模式(思考与行动交替)或多Agent协作方式,通过协调者分配任务给专业化子Agent完成复杂工作。
2026-02-15 17:53:25
616
原创 从 100 万到 1.6 万:LoRA 如何让微调参数缩减 98%
一个矩阵里真正独立的、不重复的信息有多少。秩越低,说明矩阵里的信息冗余越多,可以用更少的数据来表示。LoRA 的假设就是:微调时的参数变化ΔW\Delta WΔW是一个低秩矩阵,不需要那么多独立参数来描述。实验表明,秩rrr取 4、8、16 这样的小数字,通常就能达到很好的效果。
2026-02-14 01:12:45
761
原创 RAG 入门指南:让大模型从“闭卷“变“开卷“
RAG(检索增强生成)是一种结合信息检索与大语言模型的技术架构,通过"开卷考试"机制让AI在回答前先查阅资料。它能解决大模型的知识时效性、幻觉问题和专业深度不足等局限。RAG工作流程包含检索、增强和生成三个阶段,通过外挂知识库获取最新信息。该技术广泛应用于企业知识库、智能客服和专业AI助手等领域,具有提升准确性、动态更新等优势,但也面临检索质量依赖、延迟增加等挑战。RAG使AI能够突破训练数据限制,实现更可靠的实时知识应用。
2026-02-12 11:52:21
427
原创 5 分钟搞懂 LLM 微调:从原理到实战
本文介绍了大语言模型(LLM)微调技术,主要包括:1)微调是将预训练模型针对特定领域继续训练,使其成为该领域专家;2)微调能提升模型在专业场景下的表现,成本低于从头训练;3)主流方法包括全参数微调、LoRA、QLoRA等,各有优缺点;4)基本流程为选择模型、准备数据、调整参数、训练验证;5)与RAG和提示工程相比,微调更适合改变模型行为模式;6)应用场景包括专业领域适配、风格定制等。微调是优化LLM性能的重要技术手段。
2026-02-12 11:24:44
610
华农dsp课程设计问答题
2022-03-20
java后端秋招实习生简历没东西写,求指点
2021-09-15
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅