Google | 发布第七代TPU,性能是最强超算的24倍+,提出A2A,构建Agent协作生态

AI 算力又迎来了新的标杆。昨天,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。

这款在 Google Cloud Next '25 大会上发布的新芯片代表着谷歌十年来 AI 芯片研发战略的重大转折:谷歌自研的前几代 TPU 主要面向 AI 的训练和推理工作负载,而 Ironwood 是第一款专为推理而设计的芯片。

img

谷歌副总裁兼机器学习、系统和云 AI 总经理 Amin Vahdat 表示:「Ironwood 旨在支持生成式 AI 的下一阶段及其巨大的计算和通信需求。这就是我们所说的『推理时代』,AI 代理将主动检索和生成数据,以协作方式提供洞察和答案,而不仅仅是数据。」

突破壁垒,最大 42.5 exaflops 算力

Ironwood 拥有超模的技术规格,当每个 pod 扩展至 9216 块芯片时,它可提供 42.5 exaflops 的 AI 算力,远超目前全球最快的超级计算机 El Capitan 的 1.7 exaflops。每块 Ironwood 芯片的峰值计算能力可达 4614 TFLOPs。

在单芯片规格上,Ironwood 显著提升了内存和带宽,每块芯片配备 192GB 高带宽内存(HBM),是去年发布的上一代 TPU Trillium 的六倍。每块芯片的内存带宽达到 7.2 terabits/s,是 Trillium 的 4.5 倍。

img

在数据中心规模扩大,供电逐渐成为瓶颈的时代,Ironwood 也大幅提升了计算效率,其每瓦性能是 Trillium 的两倍,和 2018 年推出的首款 TPU 相比高出近 30 倍。

对于推理的优化代表了 AI 发展历程中的一个重要转折点。最近几年,前沿的 AI 实验室一直专注在构建参数规模不断扩大的基础模型上。谷歌转向推理优化表明,我们正在进入一个以部署效率和推理能力为核心的新阶段。

毕竟对于 AI 参与的业务而言,模型训练的次数有限,但随着 AI 技术应用逐渐铺开,推理操作每天都会发生数十亿次。由于模型日趋复杂,这些业务的经济效益与推理成本紧密相关。

谷歌在过去八年里对于 AI 计算的需求同比增长了 10 倍,总需求量高达惊人的 1 亿。如果没有像 Ironwood 这样的专用架构,任何摩尔定律的进步都无法满足这一增长曲线。

尤其值得注意的是,谷歌在发布中提到了对执行复杂推理任务而非简单模式识别的「思维模型」的关注。这表明,谷歌认为 AI 的未来不仅在于更大的模型,还在于能够分解问题、进行多步骤推理并模拟类人思维过程的模型。

面向下一代大模型

谷歌将 Ironwood 定位为其最先进 AI 模型的基础设施,其优化的大模型自然包括自家的 Gemini 2.5,它「原生内置了思维能力」。

昨天,谷歌还发布了 Gemini 2.5 Flash,作为最新旗舰模型的缩小版本,它「可以根据提示的复杂性调整推理深度」,定位于对响应速度敏感的日常应用。

谷歌还展示了其全套多模态生成模型,包括文本转图像、文本转视频以及新发布的文本转音乐功能 Lyria。谷歌展示 demo 介绍了如何将这些工具结合使用,为一场音乐会制作完整的宣传视频。

img

Ironwood 只是谷歌更广泛的 AI 基础设施战略的一部分,谷歌还宣布推出 Cloud WAN,这是一项托管式广域网服务,使企业能够访问 Google 的全球规模私有网络基础设施。

Google 还在扩展其面向 AI 工作负载的软件产品,其中包括由 Google DeepMind 开发的机器学习运行时 Pathways,现在它允许客户在数百个 TPU 上扩展模型服务。

提出 A2A、支持 MCP,构建智能体协作生态

除了硬件之外,谷歌还概述了以多智能体系统为中心的 AI 愿景,发布了一个促进智能体发展的协议 ——Agent-to-Agent(A2A),旨在促进不同 AI 智能体之间的安全、标准化通信。

地址:https://google.github.io/A2A/#/

谷歌认为,2025 年将是 AI 方向转型之年,生成式 AI 的应用形式会从回答单一问题转向通过智能体系统来解决复杂问题。

img

A2A 协议允许跨平台、跨框架的智能体实现互操作,为它们提供了共同的「语言」和安全的通信渠道。这一协议可视为智能体的网络层,其目标是简化复杂工作流程中的智能体协作,使专业 AI 智能体能够协同完成各种复杂度和时长的任务,从而通过协作提升整体能力。

img

A2A 的工作原理

谷歌在博客中对 MCP 和 A2A 两种协议进行了比较。

MCP(模型上下文协议,Model Context Protocol)用于工具和资源管理

  • 通过结构化的输入 / 输出将智能体连接到工具、API 接口和资源

  • Google ADK 支持 MCP 工具,使得各类 MCP 服务器能够与智能体配合使用

A2A(智能体间协议,Agent2Agent Protocol)用于智能体之间的协作

  • 在不共享内存、资源和工具的情况下,实现智能体之间的动态多模态通信

  • 由社区驱动的开放标准

  • 可使用 Google ADK、LangGraph、Crew.AI 等工具查看示例

总的来说,A2A 与 MCP 是互补的:MCP 可以为智能体提供工具支持,而 A2A 则让这些装备了工具的智能体能够相互对话和协作。

从谷歌公布的合作伙伴阵容来看,A2A 似乎有望获得类似 MCP 的关注度。该计划已吸引超过 50 家企业加入首批合作阵营,包括领先科技企业以及全球顶级咨询和系统集成服务商。

img

谷歌强调了该协议的开放性,将其作为智能体相互协作的标准方式,不受底层技术框架或服务供应商的限制。谷歌表示,在与合作伙伴设计协议时,坚持了以下五项关键原则:

\1. 拥抱智能体能力:A2A 专注于使智能体能够以其自然、非结构化的方式进行协作,即使它们不共享记忆、工具和上下文。我们正在实现真正的多智能体场景,而不将智能体限制为「工具」。

\2. 基于现有标准构建:该协议建立在现有流行标准之上,包括 HTTP、SSE、JSON-RPC,这意味着它更容易与企业日常使用的现有 IT 堆栈集成。

\3. 默认安全:A2A 设计为支持企业级身份验证和授权,在发布时与 OpenAPI 的身份验证方案相当。

\4. 支持长时间运行的任务:我们设计 A2A 具有灵活性,支持各种场景,从快速任务到可能需要数小时甚至数天(当人类参与其中时)的深入研究。在整个过程中,A2A 可以向用户提供实时反馈、通知和状态更新。

\5. 模态无关:智能体世界不仅限于文本,这就是为什么我们设计 A2A 支持各种模态,包括音频和视频流。

官方还给出了一个例子,通过 A2A 招聘流程得到显著简化。

,时长01:22

在 Agentspace 等统一界面中,招聘经理可指派智能体依据职位需求寻找匹配人选,该智能体会与专业领域智能体互动完成候选人寻源工作。用户还可指示智能体安排面试,并启用其他专项智能体协助背景调查,从而实现跨系统协作的全流程智能化招聘。

与此同时,谷歌也在拥抱 MCP。就在 OpenAI 宣布采用竞争对手 Anthropic 的模型上下文协议(Model Context Protocol,简称 MCP)几周后,Google 也紧随其后加入了这一行列。

刚刚,Google DeepMind 首席执行官 Demis Hassabis 在 X 平台上发文宣布,Google 将在其 Gemini 模型和 SDK 中添加对 MCP 的支持。不过他并未给出具体时间表。

Hassabis 表示:「MCP 是一个优秀的协议,正在迅速成为 AI 智能体时代的开放标准。期待与 MCP 团队和业界其他伙伴一起推进这项技术的发展。」

img

自 2024 年 11 月发布以来,MCP 迅速走红,引发广泛关注,成为连接语言模型与工具和数据的一种简单、标准化方式。

img

MCP 使 AI 模型能够从企业工具和软件等数据源获取数据以完成任务,并访问内容库和应用程序开发环境。该协议允许开发者在数据源与 AI 驱动的应用程序(如聊天机器人)之间建立双向连接。

开发者可以通过 MCP 服务器开放数据接口,并构建 MCP 客户端(如应用程序和工作流)来连接这些服务器。自从 Anthropic 开源 MCP 以来,多个公司已在其平台中集成了 MCP 支持。

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。

在这里插入图片描述
在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型落地应用案例PPT👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)

在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
img

在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

在这里插入图片描述
👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值