当前,无问芯穹异构云大模型服务平台已正式上线满血版DeepSeek-R1、DeepSeek-V3,且在逐一打通DeepSeek-R1在壁仞、海光、摩尔线程、沐曦、昇腾、燧原、天数智芯等七个硬件平台上的便捷部署与推理服务,支持通过Infini-AI异构云平台一键获取DeepSeek系列模型与多元异构自主算力服务,为大家带来更高效、更省心、更划算的AI开发和应用体验,欢迎广大开发者前往无问芯穹Infini-AI异构云大模型服务平台尝鲜使用。*国产算力以拼音字母排序
cloud.infini-ai.com/genstudio/
下面以沐曦C550为例,演示如何在无问芯穹异构云大模型服务平台cloud.infini-ai.com/genstudio/顺畅调用满血版Deepseek-R1与国产算力:
DeepSeek-R1通过对模型结构、算子、通信和硬件多个层次的极致优化,同步实现了模型性能突破与算力成本压缩。这与无问芯穹通过软硬协同提升算力利用效率的技术路线不谋而合,并验证了该路线的显著成效与巨大潜力。秉持算法与电路协同设计路线,无问芯穹打造了全球领先的第三代大模型推理系统,通过计算分离与存储融合式设计,确保首Token延迟与每个Token的生成延时均维持较低水平,让模型在同等的算力条件下呈现更好的效果。
同时,无问芯穹Infini-AI异构云平台长期致力于打通“M种模型”到“N种芯片”的高效、统一部署并推动模型与芯片间的软硬件联合优化。此次上架DeepSeek-R1,无问芯穹着重支持了该模型在国际主流加速卡与多种国产加速卡上的推理部署与服务,旨在帮助开发者屏蔽底层硬件差异,激发更多下游应用场景在异构算力基座上的生态建设,合力构筑“国产模型×国产系统×国产芯片”的AI产业链全国产闭环。
现在,您已可通过下方链接获取DeepSeek-R1与DeepSeek-V3模型的对话体验与API调用服务:
DeepSeek-R1模型获取链接:
https://cloud.infini-ai.com/genstudio?source=3A7Z
DeepSeek-V3模型获取链接:
https://cloud.infini-ai.com/genstudio/model/mo-daqznqgqbztcjain
另外,本次上架的满血DeepSeek-R1还支持并发服务包模式,支撑企业级稳定应用,客户可以按需购买5,10,50,100等不同规格的稳定并发服务包来保证生产级稳定性。同时,Infini-AI还支持并发服务包+按量并发混合调用模式,适应弹性流量,欢迎填写表单获取超稳定的企业级服务:https://infinigence.feishu.cn/share/base/form/shrcneXZPoXbmWoYznkadWG01ug
更深入了解本平台上DeepSeek系列模型的API调用方法,可登录无问芯穹大模型服务平台文档专区学习了解https://docs.infini-ai.com/posts/use-deepseek.html