10倍英伟达GPU:大模型专用芯片一夜成名!

初创公司Groq,由谷歌TPU团队成员创立,基于自研芯片提供大模型推理加速服务,速度比英伟达快18倍,成本降低。Groq支持多种模型,包括Llama2和Mixtral8x7B,且提供API接口。创始人目标在三年内超越英伟达。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

白交 克雷西 发自 凹非寺
来源 | 量子位 QbitAI

太快了太快了。

一夜间,大模型生成已经没什么延迟了……来感受下这速度。

眼花缭乱了吧,生成速度已经接近每秒500 tokens。

还有更直观的列表对比,速度最高能比以往这些云平台厂商快个18倍吧。

4e9a1914409a3ddc703b6fd41f485c08.png
(这里面还有个熟悉的身影:Lepton)

网友表示:这速度简直就是飞机vs走路

9fea8e3a63bb9e1d78ac043455804fea.png

值得一提的是,这并非哪家大公司进展——

初创公司Groq,谷歌TPU团队原班人马,基于自研芯片推出推理加速方案。(注意不是马斯克的Grok)

据他们介绍,其推理速度相较于英伟达GPU提高了10倍,成本却降低到十分之一。

换言之,任何一个大模型都可以部署实现。

目前已经能支持Mixtral 8x7B SMoE、Llama 2的7B和70B这三种模型,并且可直接体验Demo。

他们还在官网上喊话奥特曼:

你们推出的东西太慢了……

8e2648185685e703e7728fdbbedd4455.png

每秒接近500tokens

既然如此,那就来体验一下这个号称「史上最快推理」的Groq。

先声明:不比较生成质量8b12bac7d88d68596fda47141f5bec08.png。就像它自己说的那样,内容概不负责。

ec35bc9c3aef3e8d323d301bed9649e3.png

目前,演示界面上有两种模型可以选择。

d6a7d2f1a062fd7851595d211eb7e844.png

就选择Mixtral 8x7B-32k和GPT-4同擂台对比一下。

提示词:你是一个小学生,还没完成寒假作业。请根据《星际穿越》写一篇500字的读后感。

结果啪的一下,只需1.76秒就生成了一长串读后感,速度在每秒478Tokens。

fd527dbf541663692e6dfde7757b2b60.gif

不过内容是英文的,以及读后感只有三百六十多字。但后面也赶紧做了解释说考虑到是小学生写不了那么多……

f5f5902f0a6f4d925b99338944f1ff11.png

至于GPT-4这边的表现,内容质量自然更好,也体现了整个思路过程。但要完全生成超过了三十秒。单是读后感内容的生成,也有近二十秒钟的时间。

ce76bf72522b819f320a2e869593b232.gif

除了Demo演示外,Groq现在支持API访问,并且完全兼容,可直接从OpenAI的API进行简单切换。

可以免费试用10天,这期间可以免费获得100万Tokens。

目前支持Llama 2-70B 和7B, Groq可以实现4096的上下文长度,还有Mixtral 8x7B这一型号。当然也不局限于这些型号,Groq支持具体需求具体定制。

价格方面,他们保证:一定低于市面上同等价格。

7c2263b80719635b10819c03d3c72a7b.png

不过可以看到,每秒500tokens似乎还不是终极速度,他们最快可以实现每秒750Tokens

24e8f0ea2fdd9b92976fd2d2247fdbc5.gif

谷歌TPU团队创业项目

Groq是集软硬件服务于一体的大模型推理加速方案,成立于2016年,创始团队中很多都是谷歌TPU的原班人马。

公司领导层的10人中,有5人都曾有谷歌的工作经历,3人曾在英特尔工作。

创始人兼CEO Jonathan Ross,设计并实现了第一代TPU芯片的核心元件,TPU的研发工作中有20%都由他完成。

11b9d76d3cacd980c3093e58cf3f3f65.png

Groq没有走GPU路线,而是自创了全球首个L(anguage)PU方案。

LPU的核心奥义是克服两个LLM瓶颈——计算密度和内存带宽,最终实现的LLM推理性能比其他基于云平台厂商快18倍。

据此前他们介绍,英伟达GPU需要大约10焦耳到30焦耳才能生成响应中的tokens,而 Groq 设置每个tokens大约需要1焦耳到3焦耳。

因此,推理速度提高了10倍,成本却降低了十分之一,或者说性价比提高了100倍。

e7f6f8ca6c32bfdba738a948f1e56dcb.png

延迟方面,在运行70B模型时,输出第一个token时的延时仅有0.22秒。

923b9be729bd317f2caedb998bf9b1cd.png

甚至为了适应Groq的性能水平,第三方测评机构ArtificialAnalysis还专门调整了图表坐标轴。

fe2779fd7925de3b2fdbd62cecfcd54e.png

据介绍,Groq的芯片采用14nm制程,搭载了230MB大SRAM来保证内存带宽,片上内存带宽达到了80TB/s。

算力层面,Gorq芯片的整型(8位)运算速度为750TOPs,浮点(16位)运算速度则为188TFLOPs。

e81aaa26e2d6c4fc5f62ad61e89ba690.png

Groq主要基于该公司自研的TSP架构,其内存单元与向量和矩阵深度学习功能单元交错,从而利用机器学习工作负载固有的并行性对推理进行加速。

d5bfd8c8362a7da2593e33cda259c91d.png

在运算处理的同时,每个TSP都还具有网络交换的功能,可直接通过网络与其他TSP交换信息,无需依赖外部的网络设备,这种设计提高了系统的并行处理能力和效率。

结合新设计的Dragonfly网络拓扑,hop数减少、通信延迟降低,使得传输效率进一步提高;同时软件调度网络带来了精确的流量控制和路径规划,从而提高了系统的整体性能。

ac19021dea0e8f40d4e2054b004236d5.png

Groq支持通过PyTorch、TensorFlow等标准机器学习框架进行推理,暂不支持模型训练。

此外Groq还提供了编译平台和本地化硬件方案,不过并未介绍更多详情,想要了解的话需要与团队进行联系。

03caaed49cf28220a9f421e96f2c190d.png

而在第三方网站上,搭载Groq芯片的加速卡售价为2万多美元,差不多15万人民币。

09de3fcc60bdb476584982ac3626d5f3.png

它由知名电子元件生产商莫仕(molex)旗下的BittWare代工,同时该厂也为英特尔和AMD代工加速卡。

141d43b91ab976352c0f1ca673a64803.png

目前,Groq的官网正在招人。

技术岗位年薪为10万-50万美元,非技术岗位则为9万-47万美元。

cf8dfdfbab31285f857878e6ff15de63.png

“目标是三年超过英伟达”

除此之外,这家公司还有个日常操作是叫板喊话各位大佬

当时GPTs商店推出之后,Groq就喊话奥特曼:用GPTs就跟深夜读战争与和平一样慢……阴阳怪气直接拉满~

d24425668e94b3ca3ad58d818dcab0c9.png

马斯克也曾被它痛斥,说“剽窃”自己的名字。

fdd8be89bb64233e32a09c3d954325d1.png

在最新讨论中,他们疑似又有了新操作。

一名自称Groq工作人员的用户与网友互动时表示,Groq的目标是打造最快的大模型硬件,并扬言:

三年时间内赶超英伟达

ea3c02169b074ae665cb394b9f4d6b36.png

这下好了,黄院士的核武器有新的目标了。

参考链接:
[1]https://wow.groq.com/
[2]https://news.ycombinator.com/item?id=39428880å

——The  End——

15815be808dcb260fd8458ab1fa96642.gif

分享

收藏

点赞

在看

8b4e1317513be4093f435f390b3d2235.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值