自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(651)
  • 收藏
  • 关注

原创 刚刚,Claude Code开源了!51万行代码,全网狂欢

先报核心数据:1902个TypeScript文件,51.2万行代码,打包后13MB的单文件CLI,因为一个sourcemap文件,彻底暴露了底层逻辑。截至发稿,Anthropic官方还没回应,网友已经先狂欢上了,GitHub克隆项目星标半小时破5k,这波属于“程序员过年”现场。但对开发者来说,这波等于免费拿到了“AI编程工具天花板”的设计蓝图,能学、能改、能二次开发,甚至能基于源码做自己的定制化工具。不是官方发公告那种,是那种“构建配置手滑,源码全网裸奔”的被动开源,直接把开发者们的快乐值拉满!

2026-03-31 20:23:21 186

原创 【Openclaw使用案例】

OpenClaw 的本质是「让 AI 按你的指令完成重复工作」,其核心竞争力在于模块化的技能体系和灵活的适配能力,适合需要解决重复劳动、提升效率的个人和小团队。

2026-03-11 10:45:34 1216

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(11)

简单来说,Agent Skills 是为 AI Agent 量身打造的标准化、可插拔、可复用的专业技能包,它将完成特定任务所需的领域知识、执行流程、工具调用方法、异常处理逻辑、最佳实践等内容,按统一的开放标准进行结构化封装,让 AI Agent 能像人类领域专家一样,按规范自主、高效地完成端到端的特定任务。从本质上看,Agent Skills 是大模型能力的模块化载体,也是连接大模型与实际业务场景的标准化桥梁。

2026-03-11 09:57:38 266

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(10)

从核心概念到实际使用,从自定义开发到工程化集成,从个人落地到企业级部署,Agent Skills 的全体系知识构建了一套完整的大模型能力扩展解决方案。它不仅是一套「技能包」,更是大模型时代的 **「基础设施」**—— 为大模型的标准化执行、模块化扩展、普惠化落地提供了底层支撑,让大模型的生产力能真正释放到各行各业。对于个人而言,Agent Skills 能让大模型成为贴合个人习惯的专属智能助手,大幅提升日常工作、学习的效率;

2026-03-11 09:53:23 483

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(9)

Claude Agent SDK 是 Anthropic 推出的面向智能体开发的专属工具包,为开发者提供了封装完善的 API、工具集与开发框架,让 Agent Skills 能深度融入自定义 AI Agent 的开发流程中。通过该 SDK,可实现技能的按需加载、灵活调用、个性化拓展与多智能体协作,打破单一技能调用的局限,打造具备复杂任务处理能力的定制化 AI Agent,实现从「技能调用」到「智能体构建」的升级。

2026-03-10 09:17:56 626

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(8)

在 Claude Code 中可完成自定义技能的本地开发、实时调试、快速部署,相较于其他平台,Claude Code 提供了技能开发的专属调试工具,能实时校验技能的执行逻辑、工具调用规则,大幅降低自定义技能的开发难度,核心流程分为四步。

2026-03-10 09:13:24 507

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(7)

适配复杂的工程化调用场景,核心特点是。

2026-03-10 08:48:51 407

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(6)

自定义开发的核心是遵循开放标准,脱离标准的技能会失去跨平台、可复用的价值,同时在开发前需明确核心设计原则,让技能兼具实用性、稳定性和易用性,这是开发的基础,也是技能能落地使用的关键。自定义技能的文件结构为固定框架 + 灵活填充,官方定义的核心结构无需修改,只需根据技能需求在对应位置填充内容,既保证标准化,又能适配不同的技能开发需求,零基础也能快速上手搭建框架。SKILL.md 是自定义技能的灵魂,AI Agent 对技能的识别、匹配、执行都依赖于此,其编写分为YAML 元数据和Markdown 正文。

2026-03-09 10:53:08 680

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(5)

官方预设技能不仅是「开箱即用的工具」,更是学习 Agent Skills 自定义开发的最佳参考模板,其文件结构、编写逻辑、流程设计都遵循最标准的规范,通过拆解和分析预设技能的源码,能快速掌握自定义技能的开发要点,少走弯路。官方预设技能是 Anthropic 为 Agent Skills 打造的 **「入门基石 + 落地利器」**,对于新手而言,通过使用预设技能能快速体验 Agent Skills 的核心能力,理解其标准化执行的价值,零门槛实现效率提升;

2026-03-09 10:49:50 465

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(4)

AI Agent 的能力强弱,并非取决于单一组件的性能,而是取决于工具、Agent Skills、MCP、子代理组成的协作体系的完善程度。一个高效的协作体系,能让 AI Agent 的能力实现「1+1>2」的叠加效应,从「能完成简单单一任务」升级为「能高效处理复杂企业级任务」。工具为 AI Agent 奠定了行动的基础,Agent Skills 让行动有了标准和流程,MCP 让外部交互有了通用的桥梁,子代理让复杂任务的处理有了高效的方式。

2026-03-09 10:44:15 328

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(3)

从解决大模型落地的核心痛点,到实现全流程效率提升,再到打破协作壁垒、推动生态进化,Agent Skills 的价值早已超越了「一个功能模块」的范畴,成为大模型从实验室走向实际场景的基础设施。它让大模型的能力实现了标准化、模块化、普惠化,让普通用户能轻松用好大模型,让团队能高效协作用好大模型,让企业能规模化落地用好大模型。在大模型时代,Agent Skills 不再是「可选能力」,而是「必备能力」—— 谁先掌握并落地 Agent Skills,谁就能率先释放大模型的生产力,在数字时代的竞争中占据先机。

2026-03-06 11:23:08 472

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(2)

Agent Skills 并非简单的功能叠加,而是针对通用大模型在实际落地中暴露的核心问题提出的系统性解决方案。从实际使用场景出发,大模型即便拥有强大的理解与生成能力,在面对标准化、流程化、高复用性的任务时,仍会陷入效率低、效果差、成本高的困境,而 Agent Skills 正是破解这些痛点的关键,这也是其成为大模型能力升级核心方向的根本原因。

2026-03-06 11:14:11 299

原创 【Agent Skills】教程!大模型入门到进阶,一套全解决(1)

Agent Skills 是为 AI Agent 打造的模块化、标准化能力扩展系统,以文件夹为单位,将完成特定任务所需的指令、脚本、资源文件进行结构化封装,让大模型在需要时自动加载、执行,实现任务的标准化、高效化完成。把大模型比作新员工,Skill 就是为其量身定制的入职手册 + 操作规范,不用每次重复讲解工作流程,员工就能按标准完成任务;把大模型比作厨师,Skill 就是标准化菜谱 + 食材处理指南,让厨师能稳定做出符合要求的菜品,而非凭经验随意发挥。

2026-03-06 10:47:04 373

原创 Agent Skills 全解析:从核心原理到实战应用,解锁 AI Agent 新能力

Agent Skills 作为 AI Agent 领域的核心能力扩展机制,从 Claude 的专属功能模块,逐步成为 Codex、Cursor、OpenCode 等主流 AI 编程工具的标配,更是在 2025 年 12 月 18 日由 Anthropic 正式发布为开放标准,与 MCP 一同成为 AI Agent 通用、跨平台发展的重要支撑。它彻底改变了 AI Agent「只会说不会做」的困境,让智能体从通用问答助手升级为具备专业执行能力的「领域专家」,成为 2026 年 AI 开发的必备技能。

2026-03-04 11:24:02 651

原创 旧电脑改造家庭服务器:Windows 极简方案,零学习成本上手

旧电脑改造家庭服务器,核心不是追求高配置、多功能,而是实用、简单、低成本。Windows 系统 + 轻量软件的方案,避开了 Linux、Docker 的复杂操作,利用大家熟悉的操作逻辑,快速实现轻量 NAS、家庭影音服务器等核心功能,哪怕是零基础的新手,也能一小时内完成改造。几百元的二手旧电脑,甚至是家里吃灰的老笔记本,都能变身成家庭数据中心和影音中心,替代昂贵的商用 NAS,既实现了资源再利用,又满足了家庭的实际使用需求,这才是旧电脑的最佳归宿。

2026-03-04 11:21:53 469

原创 OpenClaw 国内网络使用 本地部署

OpenClaw 的核心价值,是让 AI 从 “对话工具” 变成 “执行工具”,其本地部署、模型自由、多平台适配的特点,让它在国内有极高的落地价值。通过飞书 + 国产模型的组合,能完美适配国内网络和办公场景,成为个人和小团队的 “智能数字助理”。但同时也要注意,OpenClaw 并非 “万能工具”,99% 的人若未明确其任务边界,易出现使用效率低甚至产生损失的情况。用好它的关键,是先明确哪些任务适合自动化(重复、机械、低风险),再通过逐步尝试,挖掘其适配自身的玩法。

2026-03-04 11:13:55 2357 2

原创 【2026】 LLM 大模型系统学习指南 (79)

全模态:支持文本、图像、音频、视频的输入与输出,覆盖绝大多数人机交互场景;实时化:响应速度大幅提升,支持实时语音对话、实时视频分析,延迟控制在毫秒级,接近人类自然对话节奏;高效率:推理效率优化,在保持高精度的同时降低计算成本,支持更长上下文、更复杂任务的快速处理。GPT-4o 以多模态融合为核心突破,以实时交互、高效推理为性能支撑,重新定义了大模型的能力边界与应用场景。

2026-03-03 12:07:19 661

原创 【2026】 LLM 大模型系统学习指南 (78)

本任务为微调的基础准备任务,要求学习者明确个性化微调需求,并完成高质量的数据集准备,锻炼数据处理与方案设计能力。核心要求确定微调需求:自选一个具体的微调场景(如专属风格生成:水彩画 / 油画风格;特定物体生成:专属宠物 / 产品;简单人物生成:卡通形象 / 虚拟人物),需求需具体、可落地;数据集收集与预处理:收集 5-20 张符合需求的样本,完成尺寸统一(512×512/768×768)、格式转换、清洗去重,保证样本质量;数据集标注:为每个样本添加规范的文本提示词,包含主体关键词 + 核心特征。

2026-03-03 12:02:01 607

原创 【2026】 LLM 大模型系统学习指南 (77)

扩散方法以热力学扩散过程为灵感,通过正向加噪和反向去噪的迭代过程,实现了从随机噪声到真实数据的逐步生成,成为当前生成式 AI 领域的主流技术范式。其核心优势在于生成质量高、多样性好、训练稳定,同时能与多模态技术结合实现精准的可控生成,弥补了传统生成模型的诸多短板。从基础的 DDPM 到高效的 DDIM,从可控的引导扩散模型到跨模态的文生图模型,再到动态的视频扩散模型,扩散方法的技术演进始终围绕提升生成质量、增强可控性、提高生成效率、拓展应用场景展开,不断推动生成式 AI 的工业化落地。尽管扩散方法存在。

2026-03-03 11:56:57 1173

原创 【2026】 LLM 大模型系统学习指南 (76)

基于流的生成方法以可逆的非线性流变换为核心,开创了生成式 AI 中精确概率密度建模的全新范式,填补了 VAE 近似建模、GAN 无显式建模的短板,兼具训练稳定、生成速度快、可控性强的优势。从 NICE 奠定耦合层基础,到 RealNVP 升级为仿射耦合层,再到 Glow 实现无耦合的可逆 1×1 卷积,直至 Flow++ 的极致优化,基于流的生成方法的技术演进始终围绕 **“提升拟合能力、降低计算量、优化生成效果”** 展开,成为与 VAE、GAN、扩散模型并列的四大经典生成范式之一。

2026-03-02 09:25:46 640

原创 【2026】 LLM 大模型系统学习指南 (75)

生成对抗网络(GAN)以对抗训练为核心思想,开创了生成式 AI 的全新范式,打破了传统概率建模生成模型的局限,实现了高清晰度、高细节的生成效果。从基础 GAN 的简洁设计,到 DCGAN、WGAN-GP、cGAN、StyleGAN 等经典变体的持续优化,GAN 的技术演进始终围绕解决训练痛点、提升生成质量、增强可控性展开,让其从理论模型走向了工业化落地。GAN 的核心价值不仅在于其强大的生成能力,更在于对抗训练思想的广泛应用,这一思想被融入到机器学习的各个领域,推动了整个 AI 领域的发展。

2026-03-02 09:13:27 841

原创 【2026】 LLM 大模型系统学习指南 (74)

变分自编码器(VAE)作为生成式 AI 领域的经典模型,以概率建模为核心,突破了传统自编码器的局限,赋予了模型生成新数据的能力,同时将变分推断与深度学习完美结合,为生成模型奠定了严格的概率理论基础。VAE 的核心价值不仅在于其自身的应用,更在于其作为连接传统自编码器与现代生成模型的桥梁,其隐空间建模、重参数化、条件生成等核心思想,被广泛应用于 GAN、扩散模型等后续模型中,推动了生成式 AI 的发展。

2026-03-02 09:05:25 374

原创 【2026】 LLM 大模型系统学习指南 (73)

本次内容将快速导读影像生成领域的经典方法,从基础的概率建模类模型到对抗生成、扩散生成类主流方案,再到进阶的可控生成与3D影像生成方法,梳理各类方法的核心原理、技术特点、经典变体及适用场景,搭建起经典影像生成方法的知识框架,理解不同方法的技术演进逻辑与核心设计思路。从VAE到GAN再到扩散模型,从2D生成到3D和视频生成,影像生成方法的演进遵循着清晰的逻辑,而未来的发展将围绕更高质量、更高效率、更强可控、多模态融合展开,实现从“生成影像”到“生成逼真、可控、动态的视觉世界”的跨越。

2026-02-23 11:37:30 699

原创 LLM 时代的编程与 AI 素养——综合实践与未来能力构建

核心任务围绕“LLM 辅助编程”与“AI 素养构建”两大核心展开,通过实战开发、深度反思与未来规划,让学习者在掌握利用 LLM 提升开发效率的同时,建立起在 AI 时代至关重要的批判性思维、问题拆解能力与伦理意识,最终实现从“代码搬运工”到“AI 协作工程师”的思维转变。本次作业作为阶段性的综合实践,旨在引导学习者跳出单纯的代码编写,站在“工具使用与核心能力”双轮驱动的角度,重新审视编程学习的本质。在任务二的实战中,掌握科学的提示词(Prompt)工程是成功的关键。

2026-02-23 11:07:18 341

原创 【2026】 LLM 大模型系统学习指南 (71)

本次作业以前期大模型相关的单节课程视频为总结对象(任选其一,建议选择知识点密集的理论/技术类视频,如LLM安全、生成逻辑相关),设置基础层、进阶层、高阶层三个分层任务,学习者需完成所有任务,实现从“内容记录”到“逻辑重构”再到“知识凝练”的进阶。本次作业围绕课程视频快速总结展开,核心目标是让学习者掌握针对技术类课程视频的高效总结方法,通过提炼核心内容、梳理逻辑框架、凝练关键知识点,实现对课程内容的深度理解和高效记忆,同时培养信息筛选、逻辑梳理、内容凝练的核心能力。• 步骤:先明确视频的核心主题和核心目的;

2026-02-17 11:19:36 881

原创 【2026】 LLM 大模型系统学习指南 (70)

从“亡羊补牢”的被动补救到“未雨绸缪”的主动防控,从单一技术防护到技术、规则、伦理三位一体的综合治理,从部署使用阶段的后置防护到全生命周期的前置设计,LLM安全治理的核心思路始终是让安全与技术发展同频共振,让安全成为LLM规模化、合规化落地的前提和基础。无论是基础安全风险防护,还是进阶的反欺骗治理,LLM安全治理的最终目标并非单纯的技术防护,而是构建“技术为基、规则为纲、伦理为魂”的三位一体安全体系,让LLM的发展始终在安全、合规、伦理的框架内进行,实现技术价值与社会价值的统一。

2026-02-17 11:13:30 870

原创 【2026】 LLM 大模型系统学习指南 (69)

LLM 选择文字接龙,图像生成放弃像素接龙,并非技术上的 “能与不能”,而是对文本和图像介质特性的尊重。生成式 AI 的核心是 “生成有意义的内容”,而内容的意义由介质的特性决定,脱离介质特性的生成逻辑,终究会因效果、效率的双重缺陷而被淘汰。生成逻辑适配介质特性,生成单位匹配最小有意义单元,生成顺序遵循内容构建逻辑,生成方式平衡效果与效率。这一原则是所有生成式 AI 模型设计的核心依据,无论是现有模型的优化,还是未来跨介质、多模态生成模型的研发,都离不开这一原则的指导。

2026-02-14 10:05:47 534

原创 【2026】 LLM 大模型系统学习指南 (68)

LLM 的技术发展永无止境,欺骗与反欺骗的对抗也将持续存在,LLM 的安全治理并非一劳永逸的工作,而是一场技术、规则、伦理全方位的持久战。从上篇的基础安全风险防护,到下篇的反欺骗进阶治理,我们构建了一套完整的 LLM 安全治理思路:从 “亡羊补牢” 的被动补救,到 “未雨绸缪” 的主动防控;从单一的技术防护,到技术、规则、伦理三位一体的综合治理;从部署使用阶段的后置防护,到全生命周期的前置设计。这一思路的核心,是让安全治理与 LLM 的技术发展同频共振,让安全成为 LLM 规模化、合规化落地的前提和基础。

2026-02-14 09:58:32 577

原创 【2026】 LLM 大模型系统学习指南 (66)

本次作业围绕生成式 AI 的安全议题展开,是对 LLM 安全风险认知、安全治理逻辑、技术防护手段的综合实践落地。核心目标是让学习者通过,将理论知识转化为解决生成式 AI 安全问题的实操能力,同时建立 “全流程安全治理” 的思维,理解生成式 AI 安全防护不仅是技术问题,更是融合技术、规则、场景的综合性工作。

2026-02-14 09:46:12 687

原创 【2026】 LLM 大模型系统学习指南 (66)

在分析具体安全风险前,首先需要明确 LLM 安全性的核心定义,以及安全治理的基本原则,这是识别风险、设计防护方案的基础依据,确保安全治理工作有方向、有准则。LLM 的安全性,指模型在研发、微调、部署、使用全生命周期中,能够有效识别、规避、抵御各类安全风险,始终保持输出内容的合规性、合理性、无害性,同时避免因模型自身缺陷或恶意使用,对个人、组织、社会造成财产损失、权益侵害、公共安全威胁的能力。其核心包含两层含义:一是模型自身的鲁棒性,能抵御外部的恶意攻击和不当输入;二是模型输出的可控性。

2026-02-13 11:54:54 545

原创 【2026】 LLM 大模型系统学习指南 (65)

LLM 的能力评估是一个系统工程,并非单一方法或指标能完成,其核心是围绕模型的设计目标和应用场景,构建 “多维度、多方法、定量 + 定性” 的综合评估体系。评估的核心是 “贴合场景”:没有放之四海而皆准的评估标准,好的评估一定是针对具体应用场景设计的,脱离场景的评估结果毫无参考价值;方法的核心是 “组合互补”:自动评估法、人工评估法、场景验证法等各有优劣,实际评估中需根据阶段和目标组合使用,实现优势互补;结果的核心是 “指导优化”:评估的最终目的不是为了得到一个 “分数”,而是为了。

2026-02-13 11:16:58 596

原创 【2026】 LLM 大模型系统学习指南 (64)

本任务为综合总结任务,要求学习者结合本次作业的所有任务完成过程,梳理理解 AI 决策的核心思路,并撰写心得体会,实现对本次作业及前期大模型知识的综合复盘和深度思考。

2026-02-13 11:03:19 772

原创 【2026】 LLM 大模型系统学习指南 (63)

结合上下两篇内容,我们构建了用 LLM 解释 LLM 的完整知识体系,同时形成了可落地的实践闭环。

2026-02-12 11:20:07 400

原创 【2026】 LLM 大模型系统学习指南 (62)

这是最基础、最核心的方法,核心是在指令中明确说明解释的对象、受众、深度、结构,让模型清晰知晓 “要解释什么、给谁解释、解释到什么程度、按什么结构解释”,避免模型输出的内容与需求不符。用 LLM 解释 LLM,并非是替代专业的理论学习,而是一种高效的入门理解方式和学习工具对于零基础学习者,能将复杂的大模型逻辑转化为通俗易懂的自然语言,快速建立对 LLM 的基础认知框架,为后续的专业学习打下基础;对于有一定基础的学习者,能通过 “设计解释指令 - 验证解释内容” 的过程,更深入地理解 LLM 的。

2026-02-12 11:05:52 562

原创 【2026】 LLM 大模型系统学习指南 (61)

多头自注意力机制,是指将基础自注意力机制复制为多个独立的 “注意力头”(Head),每个头使用独立的 Q/K/V 权重矩阵,从不同维度计算注意力权重、融合上下文信息,最后将所有头的输出拼接并线性变换,得到最终的多维度上下文特征向量。原始 Transformer 中设置了8 个注意力头,这也是后续多数大模型的基础配置,不同头的分工隐含着对文本不同维度关联的捕捉。基础模块:词嵌入、位置编码为模型提供语义 + 位置的基础向量,是所有计算的前提;核心机制:自注意力升级为多头自注意力,实现多维度的全局上下文建模。

2026-02-12 10:41:30 815

原创 【2026】 LLM 大模型系统学习指南 (60)

自注意力机制(Self-Attention),是指序列中的每个 token 都能与序列中所有其他 token 建立关联,并根据关联程度为每个 token 分配注意力权重,最终通过加权求和的方式,生成融合了全局上下文信息的新向量。注意力的计算仅在序列自身的 token 之间进行,无需外部的参考序列,这也是与后续 “编码器 - 解码器注意力” 的核心区别。用通俗的话讲,自注意力机制让序列中的每个 token 都能 **“看遍整个序列,找到与自己相关的 token,并重点关注它们”**。

2026-02-11 11:53:06 425

原创 【2026】 LLM 大模型系统学习指南 (59)

LLM 的可解释性,是指对模型的输入到输出的决策过程进行清晰、量化、可验证的解释能力关注什么:模型在处理输入时,重点关注了哪些上下文信息、哪些特征 token?比如输入 “用校园场景解释 Python 循环”,模型是否关注了 “校园场景” 和 “Python 循环” 这两个核心信息?如何推理:模型基于什么逻辑步骤、特征关联完成从输入到输出的推理?比如生成 “循环像课间操报数” 的解释时,模型是如何将 “循环的重复性” 与 “课间操报数的重复性” 建立关联的?为何生成该结果:模型生成某一输出的。

2026-02-11 11:39:08 801

原创 【2026】 LLM 大模型系统学习指南 (58)

Transformer 以自注意力机制为核心,以掩码解码器为架构基础,以自回归生成为策略,实现了语义层面的高质量文字接龙,让语言模型从 “机械的概率拼接” 升级为 “有理解的语义续写”。这一架构的出现,不仅重构了语言模型的生成能力,也成为了现代大语言模型、多模态模型、AI Agent 等所有生成式 AI 的基础架构。

2026-02-11 11:25:26 426

原创 【2026】 LLM 大模型系统学习指南 (57)

LLM 的人类偏好学习(Learning from Human Preference)是指以人类对模型输出的主观评价、偏好排序 / 打分为监督信号,训练模型调整生成策略,让模型的输出更符合人类的价值判断、使用习惯和特定场景偏好的技术。其与传统指令微调的核心区别在于监督信号的不同传统指令微调:监督信号是人工设计的 “指令 - 标准答案”,模型学习 “如何按指令生成正确的输出”;人类偏好学习:监督信号是人类对模型多个输出的 “偏好排序 / 打分”,模型学习 “如何生成人类更喜欢、更贴合预期的输出”。

2026-02-10 11:15:57 548

原创 【2026】 LLM 大模型系统学习指南 (56)

AI Agent(智能体)是指能在环境中自主感知、决策、执行动作,并通过反馈持续优化行为的智能系统,而基于 LLM 的 AI Agent是以大模型为核心推理和决策大脑,整合记忆组件、工具集、任务规划模块的智能体,其核心是让 LLM 拥有超越单纯文本生成的自主行动能力。根据场景和目标,定义 AI Agent 需要的核心能力,并搭建对应的工具集核心能力:知识点讲解、代码生成、代码运行验证、作业批改、知识点检索;配套工具集。

2026-02-10 11:12:02 551

毕业设计贪吃蛇小游戏(完整文档 + 核心代码 + 运行教程)可直接运行无 BUG

一、 第一部分:游戏规则说明与整体功能设计文档 贪吃蛇小游戏 - 规则说明与功能设计文档 1. 游戏概述 本游戏是基于 Python Pygame 框架开发的经典休闲贪吃蛇小游戏,界面简洁直观,操作便捷,核心玩法围绕 "控制蛇身进食成长、避免碰撞死亡" 展开,适合作为毕业设计入门级项目,具备完整的游戏流程和可扩展空间。 2. 核心游戏规则 操作方式:通过键盘上、下、左、右方向键控制贪吃蛇的移动方向,蛇身会持续向当前方向前进,无法原地倒退(例如当前向右移动时,无法直接向左转向)。 胜利 / 成长条件:蛇头触碰随机生成的食物后,食物消失,蛇身长度增加 1 节,同时游戏得分增加 10 分,新的食物会在地图内随机刷新(不会刷新在蛇身上)。 失败条件:满足以下任一条件游戏结束: 蛇头触碰游戏窗口的上下左右边界(边界碰撞)。 蛇头触碰自身的身体部分(自撞碰撞)。 游戏结束流程:游戏结束后,窗口会显示 "Game Over" 和最终得分,同时暂停所有游戏逻辑,按下R 键可重新开始游戏,按下Q 键可退出游戏窗口。 3. 整体功能模块设计 略 二、 第二部分:核心游戏逻辑代码实现(完整可运行) 见python代码,可执行 三、 第三部分:游戏界面展示与运行演示说明 1. 界面组成说明 本游戏界面为极简风格,无多余冗余元素,核心组成部分如下: 背景层:纯黑色背景,突出蛇身(绿色)和食物(红色),提升视觉辨识度。 游戏元素层: 绿色正方形:贪吃蛇身体(每一节尺寸 20x20),初始 3 节,进食后逐节增加。 红色正方形:食物(尺寸 20x20),随机刷新在窗口内非蛇身区域。 信息层: 左上角:蓝色文字显示当前得分,实时更新。 游戏结束后:窗口中央显示红色 "Game Over" 和最终得分,下方显示白色操作提示(R 键重启 / Q 键退出)。 2. 运行演示步骤(略)

2026-01-26

CNN实操代码模板.md

CNN实操代码模板

2026-01-26

BERT核心任务实操代码模板

BERT核心任务实操代码模板

2026-01-26

LangGraph-并发控制分布式执行.md

LangGraph 并发控制 + 分布式执行 包

2026-01-14

AI开发基于Electron与LangGraph的桌面端工作流引擎构建:多模态任务编排系统设计与安全加固方案

内容概要:本文档是一份关于使用 Electron 和 LangGraph 开发 AI 工作流应用的速查手册,涵盖了从环境搭建、项目初始化、核心功能开发到安全监控与常见问题排查的全流程指导。重点介绍了 Node.js 与 Python 环境配置、ElectronForge 项目构建、IPC 通信机制实现、LangGraph 工作流编排(包括线性与条件分支流程)、本地大模型集成以及应用安全加固等关键技术环节,并提供了可复用的代码模板和高频问题解决方案。; 适合人群:具备一定前端(TypeScript/React)和 Python 开发基础,熟悉 Electron 或桌面应用开发,希望快速上手 AI 工作流集成的 1-3 年经验研发人员; 使用场景及目标:① 快速搭建基于 Electron 的本地 AI 工具桌面应用;② 实现前端与 LangGraph 工作流引擎的双向通信与状态同步;③ 构建可扩展、可监控、安全可靠的多分支 AI 任务流程系统;④ 高效打包部署跨平台应用程序并规避常见坑点; 阅读建议:此资源以实战为导向,建议开发者边操作边学习,结合文档提供的命令、配置和代码模板进行本地验证,重点关注 IPC 通信设计、State 状态管理与打包优化策略,在实践中掌握 Electron 与 LangGraph 的协同工作机制。

2026-01-09

RAG 最新文献资料分享

RAG 最新文献资料分享

2025-09-04

【人工智能应用】基于豆包AI的写作与职场提效指令集:35+提示词模板系统化设计与场景化应用方案

内容概要:本文整理了35个以上豆包AI的常用指令,分为“AI写作”和“AI+职场提效”两大类别,系统性地提供了在内容创作与职场场景中高效使用AI的提示词模板。在AI写作部分,涵盖文章润色、扩写、缩写、仿写、续写、概括、案例补充、用词优化、语法纠正、语言风格调整等十余项技能,帮助提升文本质量与表达专业性;在职场提效部分,涉及产品文案撰写、演讲开场白、研究报告分析、邮件优化、市场调研报告架构、项目提案、办公效率方案、向上管理、职场沟通话术等多个实用场景,助力职场人士提升工作效率与沟通能力。; 适合人群:需要提升写作能力的内容创作者、运营人员,以及希望在日常工作中提高效率的职场人士,尤其适合初入职场或希望系统化掌握AI工具应用的1-3年经验从业者; 使用场景及目标:①用于撰写高质量文案、报告、邮件等职场文档;②提升写作表达的逻辑性、专业性和感染力;③在项目汇报、资源争取、团队协作等场景中实现高效沟通与自我展示; 阅读建议:建议根据实际需求选择对应指令模板,结合具体任务进行实践应用,并在使用过程中不断调整优化提示词,以充分发挥AI辅助效能。

2025-09-04

RAG Sample Data

RAG Sample Data

2025-09-04

RAG Sample Data

RAG Sample Data

2025-09-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除