全球12个具身大模型梳理

英伟达创始人兼CEO黄仁勋为CES2025做开幕演讲,带领14款生态人形机器人产品精彩亮相。在英伟达公布的14家合作人形机器人公司中,中国厂商占据6席,包括宇树科技、智元机器人与傅利叶3家独角兽公司,以及小鹏汽车、银河通用、星动纪元。其中,宇树科技H1是一台具备奔跑能力的全尺寸通用人形机器人,集成双足行走、先进运动控制技术、多种传感器和AI算法等,小鹏汽车的“老铁”是一款身高178厘米、重70公斤、拥有62个主动自由度的A!机器人,可模仿人类动作并进行自然对话;傅利叶的GR-2全身自由度达53个,单臂运动负载达3kg,搭载12自由度自研灵巧手及第二代执行器,续航两小时并新增换电方案。

图片

英伟达同时宣布推出“世界基础模型”NVIDIA Cosmos。Cosmos模型可以接受文本、图像或视频的提示,生成虚拟世界状态,作为针对自动驾驶和机器人应用独特需求的视频输出。开发人员可以利用Cosmos为强化学习生成AI反馈,从而改善策略模型并测试在不同场景下的性能。黄仁勋表示,通过Cosmos,开发人员可以使用0mniverse创建三维场景,然后使用Cosmos将其转换为照片级逼真的场景,再通过同时生成多个模型,帮助机器人找到完成任务的最佳方法,从而实现机器人更快学习和进步。

**机器人相关软硬件技术渐趋成熟,大模型+具身智能打开人形机器人产业成长空间。**星动纪元创始人、清华大学交叉信息研究院助理教授陈建宇表示,现在人形机器人最大的技术瓶颈是具身智能。根据智源研究院发布的2025十大AI技术趋势,2025年的具身智能(包括人形机器人),将继续从本体扩展到具身脑的叙事主线。在行业格局上,近百家具身初创企业或将迎来洗牌,厂商数量开始逐步收敛;在技术路线上,端到端模型继续迭代,小脑大模型的尝试或有突破;在商业变现上,将看到更多工业场景下的具身智能应用,部分人形机器人迎来量产。

图片

鉴于此,小编整理了全球相关具身大模型,供各位读者参考。相关总结内容是基于公开资料和论文进行的总结归纳,但由于水平有限,若有错漏之处,还请谅解。

01

跨维智能:SAM-6D

图片

SAM-6D 是由跨维智能、香港中文大学(深圳)和华南理工大学首创的6DoF姿态估计具身大模型,针对具身智能机器人操作,尤其是在处理复杂场景和未见过的物体时,可以从 RGB-D 图像中检测和估计未见过物体的 6D 姿态,该工作发表在CVPR 2024。

论文链接:https://arxiv.org/pdf/2311.15707.pdf

代码链接:https://github.com/JiehongLin/SAM-6D

核心特点

  • 零样本姿态估计:SAM-6D可从RGB-D图像中快速估计未见过物体的6D姿态,助力机器人在复杂场景中精准抓取。
  • 增强适应性与泛化能力:基于零样本学习,SAM-6D仅需CAD模型即可估计姿态,显著提升机器人在未知环境中的泛化能力。
  • **复杂场景鲁棒性:**通过Background Token设计,SAM-6D能有效解决遮挡问题,提高机器人在杂乱环境中的操作成功率。
  • 多阶段优化:SAM-6D采用两阶段点集匹配,先粗匹配后精优化,显著提高姿态估计精度,为操作提供可靠支持。
  • 助力具身智能:SAM-6D使机器人能快速适应新环境和任务,推动具身智能的灵活自主操作。

图片

应用场景

SAM-6D 在具身智能机器人操作中具有巨大的应用潜力,能够显著提升机器人在复杂场景中的适应性和操作精度。这种技术为机器人在家庭服务、工业自动化和物流等领域的广泛应用提供了新的可能性。

02

智平方 & 北京大学:RoboMamba

图片

RoboMamba是由智平方、北京大学和北京智源人工智能研究院(BAAI)联合开发的一款高效端到端视觉-语言-动作(VLA)具身大模型,专为机器人场景优化设计,旨在实现高效的推理与操作能力。RoboMamba的研究成果于2024年6月发表在NeurIPS 2024会议上。

项目主页:https://sites.google.com/view/robomamba-web。

GitHub代码库:https://github.com/lmzpai/roboMamba

核心特点

  • 多模态设计:RoboMamba结合了视觉编码器和线性复杂度的状态空间语言模型(SSM,即Mamba),通过协同训练赋予模型强大的视觉常识理解和机器人相关推理能力。
  • 高效推理与微调:该模型通过一种高效的微调策略,仅需调整模型参数的0.1%,即可在短时间内(约20分钟)完成微调,显著提升了操作泛化能力和任务适应性。
  • 推理与操控能力:RoboMamba能够处理从高层次推理到低层次精细操控的多任务场景,推理速度比现有模型快3倍。
  • 实验表现:在通用和机器人评估基准测试中,RoboMamba展现了出色的推理能力,并在模拟和现实世界实验中实现了令人印象深刻的位姿预测结果。

图片

应用场景:RoboMamba适用于多种机器人任务,包括任务规划、长程任务规划、可操纵性判断、未来与过去预测以及末端执行器位姿预测等

03

星动纪元:ERA-42

图片

星动纪元2024年12月发布端到端原生机器人大模型ERA-42,其与自研的五指灵巧手星动XHAND1相结合,首次实现仅凭一个具身大模型,即可驱动五指灵巧手运用多种工具,完成超过100项复杂精细的操作任务;包括拿起螺钉并用钻紧固、用锤子敲打钉子、扶正水杯并倒水等。

在通用性和灵巧操作能力方面,ERA-42无需任何预编程技能,具备强泛化与自适应能力,基于少量数据收集,可在不到2小时即可学会新任务,并持续快速学习更多新技能。

星动纪元指出,具身大模型作为开启通用具身智能体的密钥,需要具备以下三个要素。第一,统一一个模型泛化多种任务和环境,第二是端到端,从接收全模态数据,到生成最终输出如决策、动作等,通过一个简洁的神经网络链路完成,第三是Scaling up(规模化),允许模型通过持续的数据积累实现自我完善,使得具身大模型在数据量指数级增长的同时,不仅提升性能,还能在未知任务中展现卓越的自适应和泛化能力。

图片

在实际应用中,相比传统的夹爪机器人,基于ERA-42能力的五指灵巧手星动XHAND1能使用多种工具,完成更通用、灵巧性更强、复杂度更高的操作任务。例如,通过简单的彩色方块抓取数据训练后,ERA-42就能成功实现从未见过的多样化物体的抓取泛化。

04

Google & 柏林技术大学:PaLM-E

图片

PaLM-E(全称:Pathways Language Model with Embodied)是由Google和柏林技术大学(TU Berlin)合作开发的一种具身多模态语言模型,旨在通过融合视觉、语言和机器人控制能力,实现复杂的机器人任务。PaLM-E的研究成果于2023年3月发布。

项目主页:https://palm-e.github.io/

图片

核心特点

  • 多模态融合:PaLM-E结合了大规模语言模型(LLM)和视觉Transformer(ViT),将视觉、连续状态估计和文本输入编码为多模态句子,从而实现对复杂任务的理解和执行。
  • 大规模参数量:PaLM-E的参数量高达5620亿,其中语言模型PaLM为5400亿参数,视觉模型ViT为220亿参数。这是目前已知的最大视觉语言模型。
  • 具身化推理能力:该模型能够直接将现实世界的连续传感器模态融入语言模型,从而建立词汇和感知之间的联系。它不仅能够执行视觉问答和图像描述,还能控制机器人完成复杂的操作任务。
  • 高效任务执行:PaLM-E能够根据自然语言指令生成高级动作序列,并通过机器人平台执行任务。例如,它可以规划“找到海绵、捡起海绵、拿给用户、放下海绵”等一系列动作。
  • 跨模态迁移能力:PaLM-E通过多模态训练,展示了从语言、视觉到具身任务的正向迁移能力。它不仅在机器人任务上表现出色,还在视觉问答(VQA)等任务上达到了最先进的性能

图片

应用场景

  • 机器人任务规划:PaLM-E能够生成复杂的动作序列,完成导航、物体操作等任务。
  • 视觉问答:通过图像输入,模型可以生成描述性文字或回答相关问题。
  • **故障检测与长期规划:**模型能够进行故障检测和长期任务规划,适应复杂环境

05

Microsoft:ChatGPT for Robotics

图片

ChatGPT for Robotics是由微软自主系统和机器人研究院(Microsoft Autonomous Systems and Robotics Research)与OpenAI合作开发的一个研究项目,旨在探索如何将ChatGPT应用于机器人任务,通过自然语言交互实现机器人控制和任务规划。

核心内容

  • 设计原则与能力:该项目提出了结合提示词工程(prompt engineering)和高级函数库的设计原则,使ChatGPT能够适应不同的机器人任务、模拟器和硬件形态。研究重点在于评估不同提示词技术和对话策略在机器人任务中的有效性。
  • 多模态交互能力:ChatGPT for Robotics不仅支持自由对话形式,还能解析XML标签、合成代码,并通过对话进行闭环推理。这些能力使其能够处理从基础逻辑、几何和数学推理到复杂任务(如空中导航、操作和具身代理)的多种机器人任务。
  • PromptCraft平台:为了促进社区协作,微软推出了一个开源研究工具PromptCraft。该平台允许研究者上传和投票选出优秀的提示词方案,并提供了一个集成ChatGPT的机器人模拟器示例,方便用户快速上手。

图片

应用范围ChatGPT for Robotics的应用范围广泛,包括但不限于:

  • 空中机器人任务:如无人机的涡轮机检查、太阳能板检查和障碍物规避。

  • 操作任务:如物体抓取、堆叠和构建复杂结构。

  • 空间-时间推理:如视觉伺服任务

06

NVIDIA Cosmos 世界基础模型平台

图片

NVIDIA Cosmos 是由英伟达推出的一个面向物理 AI(Physical AI)开发的具身大模型平台,旨在通过生成式世界模型(World Foundation Models, WFM)加速机器人和自动驾驶汽车等物理 AI 系统的开发。

核心功能

  • **预训练世界模型(Pre-trained World Models)****:**Cosmos 提供了一系列预训练的生成式世界模型,包括扩散模型(Diffusion)和自回归模型(Autoregressive),支持从文本到世界(Text-to-World)和从视频到世界(Video-to-World)的生成。这些模型经过大规模视频数据训练,能够生成高保真、物理感知的视频内容。
  • **视频处理与分词技术(Video Tokenizers)****:**Cosmos 配备了高效的视频分词器,能够将视频数据高效地转换为连续或离散的标记,压缩率比现有技术高出8倍,处理速度提升12倍。
  • **数据处理管线(Video Curation Pipeline)****:**平台提供了一个加速数据处理和管理的管线,能够处理超过100PB的数据,显著降低开发成本并加速模型训练。
  • **安全与防护机制(Guardrails)****:**Cosmos 内置了安全防护机制,包括预处理阶段的有害内容过滤和后处理阶段的视频内容审查,确保生成内容的安全性和一致性。
  • **开放与可扩展性(Open and Extensible):**Cosmos 以开放模型许可证(NVIDIA Open Model License)提供,允许开发者免费用于商业用途。开发者可以通过 NVIDIA NeMo 框架对预训练模型进行微调,以适应特定的物理 AI 应用

模型家族

  • 扩散模型(Diffusion Models**)****:**如 Cosmos-1.0-Diffusion-14B-Text2World 和 Cosmos-1.0-Diffusion-14B-Video2World,支持从文本或视频提示生成高质量视频。
  • 自回归模型(Autoregressive Models**)****:**如 Cosmos-1.0-Autoregressive-13B-Video2World,用于预测视频序列中的未来帧。
  • **辅助模型(Utility Models)****:**如 Cosmos-1.0-Guardrail 和 Cosmos-1.0-PromptUpsampler-12B-Text2World,用于提升提示质量和生成内容的安全性。

图片应用场景

  • 机器人开发**:**通过生成合成数据,加速机器人在复杂环境中的训练和测试。

  • **自动驾驶汽车:**提供高保真模拟环境,用于自动驾驶系统的开发和验证。

  • **增强现实(AR):**支持视频解码和增强现实应用

07

*银河通用:**GraspVL**A*

图片

GraspVLA是由银河通用机器人联合北京智源人工智能研究院(BAAI)、北京大学和香港大学研究人员共同发布的全球首个端到端具身抓取基础大模型。该模型完全基于仿真合成大数据进行预训练,展现出强大的泛化能力和真实场景应用潜力。

核心特点

  • 预训练与后训练**:**预训练方面,GraspVLA使用了十亿帧“视觉-语言-动作”对的仿真合成数据进行预训练。这种大规模的仿真数据预训练方式突破了传统依赖真实数据的限制,显著降低了数据采集成本;后训练方面,模型可以通过少量真实数据进行微调,快速适应特定场景,同时保持高泛化能力。
  • 泛化能力**:**GraspVLA定义了七大泛化“金标准”,包括光照泛化、背景泛化、平面位置泛化、空间高度泛化、动作策略泛化、动态干扰泛化和物体类别泛化。这些标准为模型的性能评估提供了明确的指导。
  • 零样本测试能力**:**预训练完成后,GraspVLA可以直接在未见过的真实场景中进行零样本测试,展现出卓越的适应性。
  • **技术创新:**GraspVLA是全球首个完全基于仿真合成大数据进行预训练的具身大模型。这一创新突破了具身通用机器人领域的两大瓶颈:数据瓶颈和泛化瓶颈

图片

应用场景

GraspVLA适用于多种机器人任务,包括但不限于:

  • 自主操作:机器人在复杂环境中的自主抓取和操作。
  • 物体识别:在多样化背景下识别和操作不同物体。
  • 复杂环境交互:在动态环境中进行实时交互

银河通用计划继续推出覆盖多技能的具身基础大模型,推动人形机器人技术的普及与发展。这一模型的发布标志着具身智能领域进入了一个新的发展阶段。

08

斯坦福 & Google等:OpenVLA

图片

OpenVLA 是一个开源的视觉-语言-动作(Vision-Language-Action, VLA)模型,由斯坦福大学、加州大学伯克利分校、谷歌DeepMind、丰田研究院(Toyota Research Institute)和麻省理工学院(MIT)的研究人员联合开发。该模型旨在通过预训练的视觉和语言基础模型(VLMs),为机器人提供泛化能力强的动作生成能力,从而推动机器人技术的发展。

项目主页:https://openvla.github.io。

GitHub 代码库:https://github.com/openvla/openvla

核心特点

  • **模型架构:**OpenVLA 是一个参数量为70亿的模型,基于Llama 2构建,并融合了DINOv2和SigLIP等视觉语言基础模型。它通过视觉和语言输入生成机器人动作,支持多种机器人平台的开箱即用,并可以通过参数高效微调快速适应新任务。
  • **预训练数据:**OpenVLA 使用了Open X-Embodiment数据集中的97万条机器人操作轨迹进行微调。这种大规模的预训练数据使模型具备了强大的泛化能力,能够处理未见过的任务指令和场景。
  • **开源与灵活性:**OpenVLA 的所有预训练检查点和训练代码均在MIT许可下开源。这使得研究人员和开发者可以轻松地使用、微调和扩展该模型,以适应不同的机器人任务和应用场景。
  • **应用范围:**OpenVLA 可以在多种机器人平台上直接使用,支持零样本(zero-shot)控制,也可以通过少量演示数据进行微调以适应新任务。它特别适用于需要泛化能力的机器人操作任务,如物体抓取、环境交互等

图片

使用场景

  • **零样本控制:**OpenVLA 可以直接控制机器人完成预训练数据中见过的任务和机器人平台组合。
  • **快速微调:**通过少量演示数据,OpenVLA 可以快速适应新任务和机器人平台。
  • **多机器人支持:**支持多种机器人平台,无需针对每个平台重新训练。

优势与创新

  • **开源性:**OpenVLA 是第一个开源的VLA模型,填补了该领域的空白。
  • **泛化能力:**通过大规模预训练数据,OpenVLA 能够泛化到未见过的任务和场景。
  • **高效微调:**支持多种微调方式,包括LoRA(低秩适配)和全参数微调

09

UC 伯克利 & 斯坦福等:Octo

图片

Octo 是由加州大学伯克利分校、斯坦福大学、卡内基梅隆大学和谷歌DeepMind等机构联合开发的开源通用机器人策略(Generalist Robot Policy)。它是一个基于Transformer架构的具身大模型,旨在通过大规模预训练数据提升机器人在多种任务和环境中的泛化能力。Octo 的预训练数据来自Open X-Embodiment数据集,涵盖了多种机器人形态、场景和任务。这些数据不仅在机器人类型上具有多样性,还在传感器配置(如是否包含腕部相机)和标签(如是否包含语言指令)上表现出异质性。

项目主页:https://octo-models.github.io/

核心特点

  • **架构设计:**Octo 是一个基于Transformer的扩散策略模型,预训练使用了来自Open X-Embodiment数据集的80万条机器人操作轨迹。它支持多种输入模态,包括自然语言指令、目标图像、观察历史以及多模态动作预测。
  • **灵活性与适应性:**Octo 的设计强调灵活性和可扩展性。它支持多种机器人平台、传感器配置和动作空间,并能够通过微调快速适应新的观察和动作空间。这使得Octo可以广泛应用于不同的机器人学习场景。
  • **预训练与微调:**Octo 在多个机器人平台上展示了强大的零样本(zero-shot)控制能力,并且可以通过少量目标域数据(如100条轨迹)进行微调,以适应新任务和环境。
  • **开源与可复现性:**Octo 提供了完整的预训练检查点、训练代码和微调脚本,支持开源和可复现性。这使得研究人员和开发者可以轻松地使用和扩展该模型。
  • **性能表现:**在跨机构的9个机器人平台上进行的实验表明,Octo 在多机器人控制任务中表现出色,尤其是在使用目标图像进行任务定义时,其性能优于现有的开源通用机器人策略

图片

应用场景

  • **零样本控制:**在预训练数据涵盖的任务和环境中直接控制机器人。
  • **快速微调:**通过少量数据微调以适应新任务和机器人平台。
  • **多机器人支持:**支持多种机器人平台,无需为每个平台重新训练

10

谷歌 DeepMind:RT-2

图片

RT-2(Robotic Transformer 2)是由谷歌 DeepMind 推出的一种新型视觉-语言-动作(Vision-Language-Action, VLA)模型,旨在通过大规模互联网数据和机器人轨迹数据的结合,提升机器人控制的泛化能力和语义推理能力。

项目主页:https://robotics-transformer2.github.io/。

代码仓库:https://github.com/kyegomez/RT-2

核心特点

  • **模型架构:**RT-2 基于视觉语言模型(VLM)的主干网络,如 PaLM-E 和 PaLI-X,通过将动作表示为文本标记(tokens),使其能够直接输出机器人动作。这种设计允许模型将视觉、语言和动作统一在一个框架内处理。
  • **预训练与微调:**RT-2 在互联网规模的视觉语言数据上进行预训练,然后在机器人轨迹数据上进行微调。这种方法不仅保留了大规模预训练带来的语义理解能力,还使模型能够适应具体的机器人任务。
  • **泛化能力与涌现能力:**RT-2 展示了显著的泛化能力,能够处理未见过的对象、背景和指令。此外,模型还表现出多种涌现能力,例如对新命令的解释能力、基于用户指令的推理能力(如选择最小或最大的物体),以及多阶段语义推理(如选择合适的工具或饮料)。
  • **实时推理与部署:**为了实现高效的实时控制,RT-2 可以部署在云端,机器人通过云服务请求控制指令,从而实现快速响应

图片

实验与评估

  • **泛化能力:**RT-2 在6000次评估试验中表现出色,显著优于基线模型,尤其是在处理新对象、背景和指令时。
  • **涌现能力:**模型能够执行复杂的推理任务,例如根据用户指令选择合适的工具或饮料。

图片

应用场景

RT-2 可以广泛应用于机器人操作任务,包括但不限于:

  • **物体抓取与操作:**在复杂环境中识别和操作新对象。
  • **语义推理:**根据用户指令执行多阶段任务。
  • **实时控制:**通过云端部署实现高效的实时机器人控制

11

Physical intelligence:π0

图片

π₀ 是由 Physical Intelligence 公司开发的一种具身大模型,旨在通过视觉-语言-动作(Vision-Language-Action, VLA)流模型实现通用机器人控制。该模型展示了强大的泛化能力和实时推理能力,能够完成复杂的多阶段任务,如叠衣服、清理餐桌和组装盒子。

项目主页:Physical Intelligence π₀ Blog

核心特点

  • 架构设计:π₀ 基于预训练的视觉语言模型(VLM),如 PaliGemma,并在此基础上添加了一个动作专家(action expert),通过流匹配(flow matching)技术生成连续动作。这种设计使得模型能够直接输出低级电机命令,从而实现精确和流畅的操作技能。
  • 预训练与微调:π₀ 的训练分为两个阶段,预训练阶段,在大规模互联网数据上进行预训练,继承互联网规模的语义知识。微调阶段,在多样化的机器人数据集上进行微调,这些数据集涵盖了7种不同的机器人配置和68种任务。
  • 泛化能力:π₀ 在零样本任务评估中表现出色,能够完成未见过的任务,如衬衫折叠和餐桌清理。与 OpenVLA 和 Octo 等其他模型相比,π₀ 在复杂任务中的表现更为突出。
  • 实时推理:π₀ 的设计使其能够进行实时推理,适用于动态环境中的任务执行。
  • 多机器人适配:π₀ 可以直接控制多种机器人平台,无需为每个平台重新训练

图片

技术细节

  • 数据集:π₀ 使用了 OXE 数据集以及 Physical Intelligence 自行收集的机器人操作数据。
  • 模型规模:π₀ 的基础模型 PaliGemma 拥有30亿参数,动作专家部分额外增加了3亿参数。
  • 训练方法:π₀ 使用条件流匹配损失(Conditional Flow Matching)来监督动作的生成。

图片

应用场景

π₀ 可以用于多种机器人任务,包括但不限于:

  • 复杂操作任务:如叠衣服、清理餐桌、组装盒子。
  • 实时控制:在动态环境中执行任务。
  • 多机器人适配:通过微调适应不同的机器人平台

12

清华TSAIL团队:RDT

图片

RDT(Robotics Diffusion Transformer)是由清华大学人工智能研究院 TSAIL 团队开发的全球最大的双臂机器人操作任务扩散基础模型。该模型旨在通过扩散模型(Diffusion Model)和可扩展的 Transformer 架构,提升机器人在复杂环境中的双臂协调与精确操作能力。

项目主页:https://rdt-robotics.github.io/rdt-robotics

GitHub 仓库:https://github.com/thu-ml/RoboticsDiffusionTransformer

Hugging Face 模型库:https://huggingface.co/robotics-diffusion-transformer/rdt-1b

图片

图片

核心特点

  • 模型架构:RDT 基于扩散模型设计,采用可扩展的 Transformer 架构,能够高效处理多模态输入的异质性,捕捉机器人数据的非线性和高频特性。模型通过扩散模型的多模态行为分布表示,展现出卓越的动作预测与执行能力。

  • 统一动作空间:为解决数据稀缺问题,RDT 引入了物理可解释的统一动作空间,统一不同机器人的动作表示,同时保留原始动作的物理意义。这种设计极大地提升了模型的跨平台知识迁移能力。

  • 大规模预训练与微调:RDT 在目前最大的多机器人数据集上进行预训练,扩展到 1.2B 参数量,并在自建的多任务双臂数据集上进行微调。该数据集包含超过 6000+ 个任务实例,显著提升了模型的双臂操作能力。

  • 泛化能力与少样本学习:RDT 展现出强大的零样本泛化能力,能够处理未见过的物体和场景,仅通过 1~5 次演示即可学习新技能。在真实机器人实验中,RDT 明显优于现有方法,能够理解和遵循语言指令,有效处理复杂任务。

  • 应用场景:RDT 在多种复杂任务中表现出色,例如调酒、遛狗、倒水、清洗杯子等。这些任务展示了 RDT 的灵巧操作能力、指令遵循能力和对未知环境的适应性

End

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值