无问芯穹发布会圆满落幕,创始团队首次公开亮相,发布“无穹Infini-AI”与多项战略合作,超重磅阵容嘉宾现身助阵

图片

3月31日,无问芯穹在上海举办了一场以“多元计算·泛在链接”为主题的AI算力优化论坛暨产品发布会,无问芯穹发起人汪玉携联创团队首次集体公开亮相,并发布“无穹Infini-AI”大模型开发与服务平台。上海市经济和信息化委员会副主任张宏韬、上海市徐汇区科学技术委员会主任张宁出席并致辞。多家国产大模型、算力芯片与硬件公司、智算机构高管现身,另有红杉中国、真格基金、徐汇资本与启明创投等多家创投机构代表出席。

图片

上海市经济和信息化委员会副主任张宏韬致辞

上海市经济和信息化委员会副主任张宏韬表示,上海将紧抓新一代人工智能大模型的发展机遇,从产业生态、基础设施、人才发展等方面入手,聚焦大模型发展的关键环节,集聚更多以无问芯穹为代表的产业链核心企业,共同打造联通上下游、结合软硬件、链接云边端的产业生态,推动大模型以及通用人工智能全产业链的有序发展。

图片

上海市徐汇区科学技术委员会主任张宁致辞

上海市徐汇区科学技术委员会主任张宁表示,无问芯穹作为首批签约入驻“模速空间”的优秀企业代表,半年多来,依托清华大学的成熟技术,扎根人工智能大模型中间层软硬件适配优化领域,从芯片设计、算法优化、场景应用等各方面持续创新突破,为打造人工智能大模型的良好软硬件生态起到了很好的引领创新和示范带动作用。期待更多像无问芯穹一样优秀并致力于通用人工智能发展的创业团队和领军企业与徐汇共卓越、向未来。

01

“无穹Infini-AI”平台发布

开放全量注册,百亿token免费送


会上,无问芯穹发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台(infini-ai.com),并宣布自4月起正式开放全量注册,给所有实名注册的个人和企业用户提供百亿tokens免费配额。

图片

开发者可以在这个平台上体验、对比各种模型能力和芯片效果,通过简单拖拽各种参数按钮的动作,就能精调出更贴合业务的大模型并部署在无穹Infini-AI上,再以非常优惠的千token单价向用户提供服务。

目前,无穹Infini-AI已支持了Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen、Qwen1.5系列等共20多个模型,以及AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。第三方平台或自定义训练、微调而来的模型也可以无缝迁移托管到无穹Infini-AI,并获得细粒度定制化的按token计费方案。

图片

“我们对模型品牌和芯片品牌的覆盖率还会持续提升,随着时间的推移,无穹Infini-AI的性价比优势会越来越突出。”无问芯穹联合创始人兼CEO夏立雪表示,未来无穹Infini-AI还将支持更多模型与算力生态伙伴的产品上架,让更多大模型开发者能够‘花小钱、用大池’,持续降低AI应用的落地成本。

除了开放全量注册,无问芯穹也宣布正式启动大算力需求方的测试邀请,提供更具性价比的算力、且在算法和硬件上更有纵深的算力优化服务。

02

算力性价比大幅提升

源自多芯片优化实力


“市面上有很多未被激活的有效算力,硬件本身差距在快速缩小,但大家在使用时总会遇到‘生态问题’。”夏立雪说,这是因为硬件的迭代速度总是比软件更慢、价格更高,软件开发者不希望工作中出现除自身研发工作之外的其他“变量”,因而总是会倾向于直接使用有成熟生态的芯片。

无问芯穹希望帮助所有做大模型的团队“控制变量”,即在使用无问芯穹的算力服务时,用户不需要也不会感觉到底层算力的品牌差异。

成立不足一年的无问芯穹,何以能够在这么短时间内跑通多种计算卡上的性能优化?

2022年底,大模型引发社会广泛关注后,夏立雪和他的导师汪玉认为,国内整体算力水平距离国际先进还有明显差距,光靠芯片工艺提升或是多元芯片的迭代已远远不够,需要建立一个大模型生态系统,让不同模型能自动部署到不同硬件上,让各种算力得到有效利用。

一年后,无问芯穹宣布了在英伟达GPU和AMD等芯片上取得的优化效果,取得了当时最好的计算加速效果,实现了大模型任务2-4倍的推理速度提升。随后,AMD中国宣布与无问芯穹达成战略合作关系,双方将携手联合提高商用AI应用性能。

两年之后,无问芯穹在本次发布会上展示了其在10种芯片上的性能优化数据,在每张卡上都显示已取得了目前行业内最优的性能优化效果。

“我们与各个模型、芯片伙伴都建立了强信任关系,”夏立雪说:“一方面来自于我们面向大模型的计算优化实力,另一方面无问芯穹非常注重保护伙伴的数据安全。无问芯穹会持续保持中立性,并且也不会与客户产生利益冲突,这是我们业务开展的基础。”

03

将软硬件一体联合优化

从云到端 进行到底


“Transformer统一了这一轮的模型结构,并且表现出持续取得应用突破的趋势。”汪玉在开场发言中说:“从前在AI 1.0时代,我们做上一家公司,只能做很小一部分AI任务。今时不同往日,大模型结构统一了,依靠生态建立起来的硬件壁垒正在‘变薄’。”

图片

得益于世界范围内正涌起的AI浪潮,以及中国市场的独特机会,无问芯穹面对的是一次巨大的技术机遇。Transformer在设计时天然基于并行计算架构,规模越大的大模型带来的智能效果越好,使用的人越多,其所需的计算量也越大。

图片

 “无问芯穹正在做的是‘大模型原生’的加速技术栈。”无问芯穹的联合创始人兼CTO颜深根表示,大模型落地依赖算法、算力、数据,还有系统。算力决定了大模型的速度,设计优良的系统则能释放出更多硬件潜力。无问芯穹的团队曾搭建过数万片GPU级的大规模高性能AI计算平台,具备万卡纳管能力,并基于自运营集群成功搭建了云管系统,已实现跨域多云间的统一调度。

“在端侧,人们则更加倾向于快速将大模型的能力落到人机交互的界面上,提升实用体验。”无问芯穹联合创始人兼首席科学家戴国浩认为,未来,凡是有算力的地方,都会有AGI级别的智能涌现。而每一个端上的智能来源,就是大模型专用处理器LPU。

图片

大模型处理器LPU可以提升大模型在各种端侧硬件上的能效与速度。

戴国浩在发布会上向观众展示了“一张卡跑大模型”,作为LPU的基础,其团队于今年1月初推出的全球首个部署于FPGA的大模型推理IP,通过大模型高效压缩的软硬件协同优化技术,使得LLaMA2-7B模型的FPGA部署成本从4块卡减少至1块卡,并且性价比与能效比均高于同等工艺GPU。未来,无问芯穹的端侧大模型专用处理器LPU,可以被模块化地集成到各类端侧芯片中。

戴国浩宣布:“无穹LPU将于2025年面世。”

04

多项战略合作协议签署

链接模型与芯片的“双向奔赴”


发布会尾声,无问芯穹宣布与紫光展锐签署战略合作,双方宣布将共同探索大模型在端侧硬件上的部署与性能提升。

图片

无问芯穹联合创始人兼CEO夏立雪

与紫光展锐执行副总裁黄宇宁现场签约

会上,无问芯穹还与燧原科技共同宣布达成i20千卡集群战略合作,无穹Infini-AI平台已与燧原科技i20千卡集群完成系统级融合。通过无穹Infini-AI平台,可以灵活调用燧原科技的算力集群,完成大模型推理任务。

图片

无问芯穹联合创始人兼CEO夏立雪

与燧原科技创始人、董事长、CEO赵立东现场签约

随后,无问芯穹宣布与摩尔线程达成MTT S4000千卡集群战略合作,目前无穹Infini-AI平台和摩尔线程大模型智算加速卡MTT S4000千卡集群已顺利完成系统级融合。通过无穹Infini-AI平台,可以灵活调用摩尔线程智算集群,完成大模型高效训练与微调任务。

图片

无问芯穹联合创始人兼CEO夏立雪

与摩尔线程联合创始人兼执行总裁王东现场签约

此外,无问芯穹还宣布与智谱AI联合发布大模型万卡训推计划,双方将携手共建大模型训推万卡集群,在大模型训练推理优化、算力集群性能提升等方面展开深度合作。

图片

无问芯穹联合创始人兼CEO夏立雪

与智谱AI总裁王绍兰现场签约

该万卡集群将面向大模型行业应用,提供端到端模型与算力服务,围绕技术创新和产业发展需求,以算力集群赋能行业创新。

05

重磅阵容嘉宾助阵

圆桌论坛热点热议


《创新加速:搭建高效产学研桥梁》论坛

在《创新加速:搭建高效产学研桥梁》论坛上,无问芯穹联合创始人兼首席科学家戴国浩担任主持人,与中国科学院大学教授韩银和,上海人工智能实验室领军科学家林达华,北京大学博雅特聘教授梁云,以及上海交通大学计算机科学与工程系教授冷静文,一起畅想未来云端的大模型算力集群的形态,并讨论了在软硬件协同优化方向上提升大模型计算能力等创新前沿问题。

图片

《智能引领:产业需求牵引计算新纪元》论坛

在《智能引领:产业需求牵引计算新纪元》论坛上,无问芯穹联合创始人兼CEO夏立雪担任主持人,邀请到华勤技术数据业务事业群总裁邓治国,上海仪电集团战略企划部总经理兼上海智能算力科技有限公司董事长刘山泉,燧原科技创始人、董事长兼CEO赵立东,以及鸿博股份副总裁、英博数科科技有限公司CEO周韡韡,无问芯穹联合创始人兼CTO颜深根。六位嘉宾共同探讨了目前算力产业所面临的最大挑战与机遇,以及如何更好地开放和共享算力资源等问题。

图片

《布局前瞻:大模型时代的前沿投资机遇》论坛

《布局前瞻:大模型时代的前沿投资机遇》论坛聚焦大模型时代的前沿投资机遇,邀请到红杉中国董事总经理公元主持,真格基金管理合伙人戴雨森、上海徐汇资本投资有限公司副总经理施蓓以及启明创投合伙人周志峰出席。四位嘉宾围绕中国大模型技术与商业模式的破局之道展开讨论,探讨了AGI来临形态与边、端落地机会等话题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值