- 博客(26)
- 收藏
- 关注
原创 从 Prompt Engineering 到 Harness Engineering:AI 工程能力的演进之路
从最初的 Prompt Engineering(提示工程),到 Context Engineering(上下文工程),再到如今越来越受关注的 Harness Engineering(驾驭工程 / 代理运行工程),这三个概念并非互相替代,而是形成了一条清晰的抽象层级递进线。这一演进在 OpenAI 的官方文档和文章中体现得淋漓尽致——从早期的 Prompt Engineering 指南,到 2026 年发布的 Harness Engineering 文章,我们可以看到 AI 工程实践的成熟路径。
2026-03-24 23:46:04
519
原创 VS Code 扩展安装失败?“End of central directory record signature not found” 错误终极解决办法(macOS 实测有效)
最近使用 VS Code 时突然发现扩展商店几乎没法用了。。这说明问题并不是网络完全不通,也不是扩展本身有问题,而是 VS Code 在自动下载扩展的 ZIP 包时,文件被意外截断了(truncated),导致解压失败。
2026-03-17 00:51:39
199
原创 【OpenClaw 配置教程】以 DeepSeek 官网为例,超详细添加 deepseek-chat 与 deepseek-reasoner 模型(2026最新版)
本文详细介绍了如何在OpenClaw中配置DeepSeek官方API模型,包含以下主要内容: 注册DeepSeek账号并获取API Key的步骤说明 OpenClaw配置文件的路径和结构要求 提供完整的JSON配置模板,支持两种模型: deepseek-chat(标准模式,128K上下文) deepseek-reasoner(思考模式,支持32K输出) 关键参数说明和官方计费参考 保存重启后的验证方法 常见问题排查指南 配置完成后,用户可在OpenClaw中直接使用DeepSeek的两种强大模型。文章还提供
2026-03-08 00:10:28
4692
3
原创 OpenClaw 常用命令速查表(2026最新版)|从新手到高手,一表搞定所有操作
OpenClaw(前身 Clawdbot / Moltbot)是 2026 年最受欢迎的本地 AI 网关 + 多通道智能体框架,支持微信、飞书、Telegram、WhatsApp 等通讯通道,一键对接阿里云百炼、DeepSeek、Qwen 等大模型,还能通过 ClawHub 扩展上百种技能。不管你是刚装完的新手,还是已经在服务器上跑生产环境的运维老鸟,这张速查表都能让你。的 OpenClaw 命令大全!2026,我们一起玩转智能体!下次再也不用在终端里疯狂。,再也不用翻文档了!
2026-03-08 00:01:03
2861
原创 Conda 操作指南
Conda是Python/R开发中常用的包和环境管理工具,主要功能包括:1)环境管理(创建、查看、激活、删除环境);2)包管理(安装、卸载、更新包);3)环境导入导出(通过yml文件共享环境);4)镜像源设置(国内推荐清华源);5)系统维护(清理缓存、更新Conda)。使用时应优先选择conda install而非pip,以保证环境稳定性。这些功能能有效解决不同项目间的依赖冲突问题。
2025-12-31 22:46:44
456
原创 Mac 本地运行 Hugging Face 大模型完全指南:PyTorch (MPS) vs Apple MLX
摘要: 本文介绍了两种在Apple Silicon Mac上高效运行Hugging Face大语言模型的方法。方法一采用PyTorch+MPS方案,通过torch.float16优化内存使用,代码兼容性强但内存占用较高;方法二使用Apple原生MLX框架,支持统一内存零拷贝和4-bit量化,特别推荐其流式生成和极致内存优化能力。两种方案均提供完整代码实现,其中MLX方案在8GB内存设备上即可流畅运行1.5B参数模型,是Mac用户的性能首选。文中还对比了两种方案的优缺点,并强调了MLX在延迟优化和量化支持上的
2025-11-28 00:20:23
1428
原创 编程中的命名哲学:从变量到项目,如何取个好名字?
《编程命名艺术:从变量到项目的命名哲学》系统阐述了编程中的命名规范和技巧。文章分为代码内部命名和项目命名两大部分:代码层面详细解析了蛇形、驼峰、串式和匈牙利四种命名法及其适用场景,并提供了主流语言的命名规范速查表;项目层面则强调串式命名法的优势,分享了混合词、神话典故等创意命名策略。核心原则强调命名应注重可读性、准确性和意图表达,指出好的命名是代码可维护性的基础,也是项目品牌建设的第一步。文章建议开发者遵循语言规范,避免随意命名,为代码和项目选择既专业又富有表现力的名称。
2025-10-21 06:01:56
862
原创 LLM微调尝试——MAC版
本文介绍了如何在MacBook(Apple Silicon)上使用MLX-LM框架进行大语言模型微调。MLX-LM是专为苹果芯片优化的开源工具包,支持Hugging Face模型、高效微调(全参数/LoRA/QLoRA)和模型量化。文章详细演示了环境配置、安装依赖、数据集准备(使用ModelScope-Swift的自我认知数据集)和格式转换的完整流程。通过替换模板变量,可将数据集个性化定制为特定模型的认知数据。该方案充分利用了苹果统一内存架构的优势,为本地AI开发提供了高效便捷的解决方案。
2025-10-20 18:37:34
1232
原创 RAG技术全栈指南学习笔记------基于Datawhale all-in-rag开源项目
RAG技术全栈指南学习摘要 本文系统介绍了检索增强生成(RAG)技术的核心概念与应用。RAG通过结合信息检索和生成模型的优势,有效减少大语言模型的"幻觉"问题。全文分为三部分:RAG基础架构(知识库、检索器、生成器、融合模块)、文本向量化技术(从词袋到Sentence-BERT)及向量数据库原理(ANN算法、主流工具对比)。RAG适用于智能问答、内容生成等场景,其发展历程显示从2020年提出至今已快速演进为多模态融合方向。实践层面,文本详细演示了向量化代码实现,为开发者提供技术参考。整体
2025-10-04 22:42:11
1721
原创 算法比赛中的浮点数精度陷阱:从一个货币分解问题说起
摘要: 文章探讨了算法比赛中常见的浮点数精度陷阱,以巴西货币分解问题为例,展示了浮点误差如何导致结果错误。由于计算机二进制表示小数的局限性,0.1等十进制数存储时会产生截断误差。解决方案是在将金额转换为分时加0.5进行四舍五入(如int(N*100+0.5))。文章还指出了浮点比较、累积误差等常见场景的应对策略,建议优先使用整数模拟小数计算。这一技巧对于ACM/ICPC等比赛中处理货币、几何等问题至关重要。
2025-10-03 23:56:16
1008
原创 算法比赛必备:C/C++ 数据类型大小与范围详解
算法比赛中正确选择C/C++数据类型至关重要,直接影响程序正确性和性能。本文详细总结了64位系统下各数据类型的字节数、取值范围,包括整型、浮点型、字符串等关键类型。特性。重点分析了不同场景下的类型选择策略:大数运算用long long防溢出,数组处理注意内存占用,浮点运算考虑精度需求。同时指出了平台差异、无符号陷阱等常见问题,并通过实际演示说明错误类型选择导致的WA、TLE等后果。文章提供了实用代码验证方法和比赛应用案例,帮助选手在解题时做出明智的类型选择决策。
2025-10-03 22:13:49
1005
原创 在算法比赛中高效处理多行输入
本文介绍了算法竞赛中处理多行输入的实用技巧——使用while(scanf != EOF)循环。该技巧能高效处理不确定数量的输入数据,避免固定循环次数的限制。文章通过读取浮点数并格式化输出的示例,详细讲解了代码实现和原理,包括EOF判断、浮点精度处理等关键点。同时比较了该方法与传统循环方式的优势,如速度快、通用性强等,并给出扩展应用场景和常见注意事项。特别适合算法竞赛新手学习高效输入处理技巧。
2025-10-03 22:10:37
896
原创 Docker 入门指南:从基础概念到常见命令及高级工具详解
本文是Docker的入门指南,介绍了容器化技术的基本概念和优势,包括一致性、轻量级和可移植性等。文章详细讲解了Docker的安装方法、基础命令(镜像和容器管理),以及如何通过Dockerfile构建自定义镜像和使用Docker Compose编排多容器应用。最后鼓励读者动手实践,并推荐官方文档作为进一步学习资源。全文循序渐进,适合Docker初学者快速上手。
2025-08-27 22:50:16
1129
原创 Datawhale AI夏令营四“扣子空间共学”学习笔记
Coze空间让我这个非设计专业的小白也能快速打造专业PPT,真正实现了“审美力+技术力”的融合。这份算法工程师职业规划PPT不仅是求职的敲门砖,也让我对未来职业方向更有信心。附:我的Prompt分享请设计一份面向2025年求职场景的算法工程师职业规划PPT,具体要求如下: ### 整体框架(共8-10页,10-15分钟展示时长): 1 . **标题页**:需包含 "算法工程师职业规划" 主标题、副标题(突出深度学习与推荐系统方向)、姓名及联系方式,设计风格为现代科技感。
2025-08-20 15:03:00
833
原创 技术岗位学习路径指南
本文为算法工程师、大模型研究员、Java 后端工程师和前端工程师这四个热门技术岗位,设计了详尽且可执行的学习路线图。每个岗位的知识体系都将通过独立的章节进行介绍,其中包含详尽的内容解析、循序渐进的学习路径、精选的书籍与课程资源,并辅以可落地的项目建议。大模型研究员站在AI技术的最前沿,致力于推动基础模型的边界。Java后端工程师是企业级应用和互联网服务的中流砥柱,负责设计和实现稳定、可扩展且安全的服务器端系统。前端工程师是数字体验的创造者,他们将设计和技术融为一体,构建美观、易用、高性能的Web应用。
2025-08-11 01:20:05
1817
原创 计算机语言概述
本文概述了计算机语言的分类与特点,从底层机器语言到高级编程语言,详细介绍了各类语言的用途、优缺点及代码示例。机器语言和汇编语言适用于硬件级编程,而C、C++、Java等高级语言广泛用于系统开发、Web应用和数据分析。脚本语言如Python和JavaScript则强调开发效率。此外,还介绍了标记语言(HTML)和查询语言(SQL)的应用场景。通过对比不同语言的特点,帮助读者理解编程语言的多样性及其适用领域。
2025-08-06 22:13:46
1534
原创 算法竞赛入门指南
算法竞赛不仅是一场智力的较量,更是一段提升编程能力、逻辑思维和团队协作的旅程。通过系统学习、大量练习和积极交流,你将逐渐掌握算法的精髓,并在竞赛中收获乐趣与成就感。立即行动,从基础开始,挑战自我,享受编程的魅力吧!
2025-08-02 09:24:20
1425
原创 计算机学习指南概述
计算机科学是一个充满机遇的领域,无论你选择哪个方向,都需要持续学习和实践。选择适合的方向:根据兴趣和职业目标选择学习方向,如AI适合喜欢数学和创新的人,软件工程适合喜欢构建系统的人。实践驱动:通过项目和竞赛将理论转化为能力。保持更新:关注技术趋势,如AI、量子计算等,紧跟行业发展。未来的计算机科学将继续推动人类社会的进步。从量子计算的突破到AI的广泛应用,学习计算机科学不仅是一项技能,更是一次探索未来的旅程。希望这篇指南能为你点亮学习之路!
2025-07-29 00:07:53
1037
原创 万字解析:从 C 语言到初阶数据结构
《万字解析:从 C 语言到初阶数据结构》是一篇面向零基础学习者的综合性编程入门教程,系统介绍了C语言基础与初阶数据结构知识。文章从C语言的历史与环境搭建开始,逐步讲解变量、流程控制、函数、数组、指针、结构体及文件操作,每节配有详细文字说明、规范代码和注释,确保易于理解。进一步引入链表、栈、队列等数据结构,结合算法竞赛案例(如括号匹配、台阶问题)展示其实用性。通过多个实战项目(如猜数字游戏、计算器、图书馆管理系统),帮助初学者将理论应用于实践。
2025-07-28 23:27:41
688
原创 模型蒸馏从入门到精通
模型蒸馏是一种将大型复杂模型(教师模型)的知识转移到小型高效模型(学生模型)的技术,由Hinton等人于2015年提出。它通过教师-学生框架实现知识转移,包括响应、特征和关系三种方式。与微调互补,可与LoRA技术结合进行高效微调,适用于领域适应场景。高级技术包括对抗蒸馏、多教师蒸馏等。以PyTorch实现为例,通过定义教师/学生模型、损失函数和数据加载器,完成CIFAR-10数据集上的训练。蒸馏后可获得性能接近教师模型但计算需求更低的学生模型,适用于资源受限设备。
2025-07-28 21:04:06
1156
原创 模型蒸馏中loss曲线的原理与应用
本文探讨了模型蒸馏中loss曲线的原理与应用。loss曲线作为训练过程的关键指标,反映了学生模型学习教师模型知识的效果。模型蒸馏的损失函数包含交叉熵损失和蒸馏损失(KL散度)。分析loss曲线时需关注下降趋势、震荡情况和平稳状态,以判断模型收敛和过拟合情况。参数如学习率、批量大小和蒸馏温度直接影响曲线形态。LoRA微调技术通过训练少量低秩矩阵提升效率,其loss曲线变化可反映参数配置效果。LoRA在蒸馏中具有计算资源节省和较低过拟合风险的优势,但需调整秩和学习率等超参数。loss曲线分析是优化蒸馏模型性能的
2025-07-28 20:43:36
2485
原创 解决开发过程中的端口占用问题的方法总结
文章摘要:本文探讨了软件开发中常见的端口占用问题及其解决方案。端口冲突通常由多进程竞争、异常退出未释放端口或系统服务占用导致。解决方法包括:1) 使用netstat(Windows)或lsof(Linux/macOS)检测占用进程;2) 终止进程或修改项目端口配置;3) 利用自动化工具动态分配端口。预防措施建议规范端口分配、使用环境变量和容器化开发。通过系统化方法可有效解决端口冲突问题,提升开发效率。
2025-07-24 20:48:22
1927
原创 Datawhale AI夏令营 模型蒸馏学习 task2笔记
本文详细介绍了在星辰MaaS平台上通过知识蒸馏训练轻量级学生模型的完整流程。实践过程分为五个关键步骤:数据准备(清洗与补充数学题集)、教师模型推理链生成(设计Prompt获取DeepSeek-R1的详细推理过程)、学生模型蒸馏训练(采用LoRA方法高效微调)、模型评估调优(从准确性、推理质量等多维度评估)以及最终模型提交。文章特别强调高质量数据预处理、有效的Prompt设计以及LoRA调参技巧,并分享了各环节的实用建议和代码示例,为在资源受限环境下实现高效模型优化提供了可复制的解决方案。
2025-07-23 09:52:34
1135
原创 Datawhale AI夏令营 模型蒸馏学习 task1笔记
本文介绍了数学推理蒸馏技术,通过让大模型(如DeepSeek)生成高质量推理数据并迁移到轻量级小模型,实现高效数学解题能力。实践框架包括:报名比赛、下载数据集、LoRA微调、发布服务和提交赛事。文章指出CoT(思维链)微调能显著提升模型推理能力,并探讨了数据清洗优化方法。进阶思考包括大模型处理数学推理的机制、CoT的作用原理、数据优化策略等。该技术可在保持推理质量的同时降低计算资源需求,适用于实际部署场景。
2025-07-22 10:49:12
1111
原创 模型蒸馏常见术语释义
摘要:模型蒸馏(Model Distillation)是将大模型(教师模型)知识迁移到小模型(学生模型)的技术,包含知识蒸馏、软标签、LoRA等核心方法。其关键环节包括通过思维链(CoT)生成高质量蒸馏数据集,结合微调、量化等技术优化推理效率。该技术广泛应用于数学推理等复杂任务,能在保持性能的同时显著降低计算成本,适用于边缘计算等资源受限场景。
2025-07-21 23:57:35
1167
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅