三国鼎立(INTEL/NVIDIA/AMD)

1

众所周知,现在的独立显卡市场是NVIDIA和AMD-ATI两家的天下。尽管Intel凭借整合图形芯片组的优势占据了集成显卡市场的半壁江山,但独

立显卡一直是Intel心中难言的痛。为了顺利完成平台化战略目标,Intel计划在明年推出代号为Larrabee的独立显卡,这将对整个显卡市场产

生巨大的影响,Larrabee是什么样的显卡?Intel能否借它与NVIDIA、AMD三分天下?
  一、Intel显卡市场探究
  说到Intel,大家都知道它是CPU行业龙头老大,同时在主板芯片组领域也具有举足轻重的地位。但在显卡市场,很多人对Intel并不太了解。实际上,Intel在集成显卡市场的占有率超过了50%,从810/815系列到845/865系列,再到945/965系列主板芯片组,Intel的集成显卡战略所向披靡。
  据权威机构调查,Intel在今年第一季度拿下了集成显卡市场50.7%的份额,占整个显卡市场的40%,而AMD-ATI、NVIDIA只分别占了28%和22%的市场份额,Intel是当之无愧的显卡市场霸主。不过,Intel在独立显卡市场始终郁郁不得志,它一直在寻找进军独立显卡市场的切入点。早在1998年2月,Intel曾发布了和Real3D合作设计的i740/i752独立显卡,但由于各大竞争对手的3D显卡性能遥遥领先,加上Intel忙于自己的平台化策略,所以风光一时的i740/i752成为Intel独立显卡的“绝唱”。时隔近10年,Intel在平台化战略中取得了巨大成功,它为了巩固集成显卡市场,改变人们认为Intel整合显卡性能是“鸡肋”的成见,决

定着手实施代号为“Larrabee”的独立显卡开发计划,并将于2008年推出样品,2009年正式推出产品,以此进军独立显卡市场。
    二、Larrabee独显技术特点
  Intel此次携Larrabee重返独立显卡市场,这无疑是PC技术领域最令人瞩目的事情。那么,Larrabee独立显卡有什么特点呢?它能和NVIDIA和AMD-ATI的产品相抗衡吗?
  Larrabee是一种可编程的多核心架构,不同的版本会有不同数量的核心,并使用经过调整的x86指令集,性能上将会达到万亿次浮点运算级别。值得注意的是,Larrabee中的处理核心为顺序执行核心,与CPU中的乱序执行核心不同。
  Intel表示,Larrabee与AMD、NVIDIA的GPGPU(通用计算图形处理器)技术不同,后两者分别使用Stream Processing(流处理)和CUDA(统一计算设备架构)来满足对GPGPU计算的需求。而Larrabee基于传统的x86架构,它既可用在显卡上,也可用作一个特殊的x86处理器,满足一些高性能计算的需求。看来,Larrabee的市场应用前景将会更加广阔。实际上,Larrabee隶属于Tera-Scale项目(万亿级别计算研究项目),主要面向高端通用目的计算平台,拥有1GB~2GB的GDDR5显存,带宽为128GB/s,至少有16个核心,主频1.7GHz~2.5GHz,每个核心的双精度峰值为14~40GFlops(每秒10亿次浮点运算),功耗则在150W以上,支持JPEG纹理、物理加速、反锯齿、增强AI、光线追踪等特性。

2
  从上述细节来看,Larrabee要比那些复杂的GPU架构简单得多,这无疑大大简化了技术开发人员的开发难度。
  从目前展示的Larrabee显卡的GPU核心的尺寸来看,49.5mm×49.5mm的大小显得有点夸张,这也许不是真正核心的尺寸,可能是外观Package(封装)的规格大小。
    据悉,2009年出炉的第一代Larrabee产品将采用45nm工艺,集成32个处理核心,搭配大容量缓存,同时也会衍生出只有24个核心的低端版本(主要由屏蔽其中8个核心而来)。而到2010年,Intel将推出集成48个处理核心显卡产品,并将制造工艺升级到32nm。
  从现有的架构图可以看到,Larrabee可用于搭载多路系统,这个系统抛弃了传统FSB结构,而采用了CSI Bus(可配置系统互连总线)结构,它的延迟为50ns,每条链路可以提供17GB/s的带宽。
  三、Larrabee显卡发展前景
  毫无疑问,一旦Larrabee显卡上市,它的竞争对手就是AMD-ATI的Radeon系列和NVIDIA的GeForce系列显卡。Larrabee显卡要获得成功,必须获得显卡下游厂商的全力支持。据悉,Intel已经和多家显卡厂商有过接触。
  不过,目前关于Larrabee的详细计划尚不明确,Intel将在今年第四季度提供一份更完整的产品路线图。有消息称,Intel初期将主攻300美元左右的中端市场,而当前高端显卡价格在800美元左右,看来Larrabee显卡的价格优势比较明显。
  当然,Larrabee显卡要获得市场认可,必须具备和竞争对手相抗衡的实力。尽管Intel是否会应用类似SLI/Crossfire等多显卡互连技术目前还不得而知,但不排除这种可能,因为大多数Intel中高端芯片组都支持多个PCI-E插槽。另外,Larrabee还需要成熟的驱动与之配合,以充分发挥自身的性能。如果当前计划进展顺利的话,Intel最早将在2008年第二季度发布Larrabee独立显卡产品。未来的图形市场究竟将呈现一个什么样的格局,让我们拭目以待!
      业内知道,作为全球处理器(CPU)市场的老大,其在处理器市场和显示芯片(GPU)市场的份额都处在第一的位置。但在显示芯片中,英特尔多是集成显卡的形式出现。而鉴于独立GPU的重要性日渐凸现,尤其是在未来的高性能计算、个人HPC,研发自己的独立显卡一直是英特尔的目标,而Larrabee就是英特尔首款应以独立显卡产品形态出现的涉足GPU的计划。经过若干年的发展,近日,有报道称,英特尔原定在明年发布的Larrabee计划中的独立显卡将推迟,也有的称是取消,更有分析认为推迟或者取消Larrabee计划,是英特尔在为并购另一家显示芯片厂商Nvidia铺路。那英特尔是否该推迟甚至终止自己的Larrabee计划?如果是的话,英特尔是否可以通过并购Nvidia直接杀入显示芯片市场与另外一家显示芯片厂商AMD竞争呢?从报道上看,英特尔推迟也好,取消Larrabee计划也罢,主要的原因是技术方面的。但无论未来技术问题能否得到解决,届时的Larrabee计划再以独立显卡产品推出的意义已经不大。原因很简单,术业有专攻。英特尔是做CPU的厂商,先不说目前遇到的困难,即使最后解决了问题,推出自己的独立显卡,恐怕也很难和目前两大显卡芯片厂商Nvidia和AMD竞争。所以与其投入重金作独立显卡,不如将Larrabee作为协处理器的形式用于未来的高性能计算领域。从近一年多的全球高性能计算TOP500的技术趋势看,CPU+GPU的异构形式在提升高性能计算速度上的效果异常明显。但这种异构的瓶颈还是在于CPU与GPU不同指令集的编译和通信之间。这意味着同属于X86指令集的英特任的CPU和Larrabee的结合的效率会高于目前CPU+GPU的组合。更为重要的是在跑基于X86的应用时,效率应该是最高的。据称,明年发布的IBM最新的Power7处理器器,在高性能计算中将会与其自己的Cell处理器(作为协处理器)相配合,运算峰值速度可达目前最快超级计算机的10倍,也就是万万亿次/秒。由于Power和Cell都是基于RISC架构,这至少证明在基于同样指令集的CPU和协处理器的方式比单纯的不同指令集的CPU+GPU具有更大的提升和发展空间。此外,鉴于未来单芯片系统的发展是大势所趋,英特尔还可以将Larrabee直接整合到CPU中。还是基于同样指令集的优势,其效率仍可能会高于单纯的CPU+GPU的方式,而且从整合的技术和编程应用难度上看,同一指令集的难度要远远小于不同指令集的单纯的CPU+GPU的方式。这也就意味着,同一指令集整合后的单芯片系统在最终的应用效率上要高。基于上述的分析,如果最终事实证明英特尔的Larrabee计划只是延迟而不是取消的话,不再推出独立显卡的产品形式,而是以协处理器或者整合的形式,应用到高性能计算市场和单芯片系统中将是明智的选择。第二种可能就是英特尔取消了Larrabee计划,但鉴于GPU的重要作用,英特尔并购Nvidia的传言极有可能变成现实。并购Nvidia带来的直接好处是让英特尔在间接消灭一个竞争对手的同时,直接杀入到独立显卡市场而与AMD在CPU和GPU市场全面竞争。由于之前,在PC市场,英特尔就已经占据了图形芯片份额的第一,再加上Nvidia的份额,领先的优势将会再度扩大。同时还可以免去了Nvidia诉讼的可能。唯一损失的就是这些年在Larrabee计划中的资金和人力的投入。此外,在未来CPU+GPU的争夺战中,英特尔与AMD将没有差异化可言,同样面临异构和不同指令集的芯片整合。到时候谁胜谁负将很难预料。从这些看,英特尔放弃Larrabee计划并购Nvidia可谓是利弊各半。
最后一种可能就是英特尔在继续自己的Larrabee计划的同时,并购Nvidia。从技术和市场的角度看,这对于英特尔是最为有益的。既可以让自己在高性能计算市场有多重的选择(异构的CPU+GPU,或者是同指令集的CPU加自己的Larrabee),又让自己扩大在PC市场中显示芯片的优势,但随之而来的弊端就是英特尔很可能再次面临反垄断诉讼的风险。不管怎样,英特尔Larrabee计划的推迟或者取消,都预示着英特尔未来在处理器市场的战略调整。选择总是艰难但又是必须的。而任何选择

都有利有弊,这就要看英特尔如何根据产业的发展趋势和对手的情况来权衡利弊得失了。Intel和NVIDIA的口水大战仍在继续。这次Intel的论调是,像NVIDIA CUDA这种GPGPU通用计算编程模型是没有未来的,因为程序员们没时间学习一种新架构。在宣布Intel迎来四十岁生日之后,Intel高级副总裁、数字企业部总经理Pat Gelsinger接受了媒体采访,期间声称CUDA技术最多不过是“计算历史长河中的一朵小浪花而已”。他说:“计算历史上一再重复出现的一个问题是,有人想出了一个很酷的新点子,保证说会带来10倍、20倍的性能提升,但你必须面对全新编程模型的麻烦,而在通用计算模型问题上,这一障碍是无法克服的。
Gelsinger以Cell处理器架构为例证明其观点:“它确实是一个全新的计算架构,但很多年过去了,程序员们还是很难理解如何为其编写应用程序。”Gelsinger声称,以上就是Intel Larrabee图形芯片为何完全基于IA x86核心的主要原因。他说:“我们不会强迫程序员学习一个全新架构,而是让他们面对自己熟悉的东西,然后对现有编程模型进行拓展,加入新的视觉计算数据并行处理机制。这就是我们在开发Larrabee时的策略。

 3

       它是一个IA兼容核心,加入了图形矢量视觉指令集,完全支持原生编程模型和DirectX、OpenGL等API接口。”
Gelsinger还表示独立软件开发商对Larrabee充满了热情,这也证明他们的策略是正确的,适合长期发展看来Gelsinger博士的观点是提倡循序渐进,不要贸然革命,尤其是不要大张旗鼓地和Intel对着干。Intel和NVIDIA的口水大战仍在继续。这次Intel的论调是,像NVIDIA CUDA这种GPGPU通用计算编程模型是没有未来的,因为程序员们没时间学习一种新架构。在宣布Intel迎来四十岁生日之后,Intel高级副总裁、数字企业部总经理Pat Gelsinger接受了媒体采访,期间声称CUDA技术最多不过是“计算历史长河中的一朵小浪花而已”。
他说:“计算历史上一再重复出现的一个问题是,有人想出了一个很酷的新点子,保证说会带来10倍、20倍的性能提升,但你必须面对全新编程模型的麻烦,而在通用计算模型问题上,这一障碍是无法克服的。Gelsinger以Cell处理器架构为例证明其观点:“它确实是一个全新的计算架构,但很多年过去了,程序员们还是很难理解如何为其编写应用程序。”Gelsinger声称,以上就是Intel Larrabee图形芯片为何完全基于IA x86核心的主要原因。他说:“我们不会强迫程序员学习一个全新架构,而是让他们面对自己熟悉的东西,然后对现有编程模型进行拓展,加入新的视觉计算数据并行处理机制。这就是我们在开发Larrabee时的策略。它是一个IA兼容核心,加入了图形矢量视觉指令集,完全支持原生编程模型和DirectX、OpenGL等API接口。”Gelsinger还表示独立软件开发商对Larrabee充满了热情,这也证明他们的策略是正确的,适合长期发展看来Gelsinger博士的观点是提倡循序渐进,不要贸然革命,尤其是不要大张旗鼓地和Intel对着干。
Intel和NVIDIA的口水大战仍在继续。这次Intel的论调是,像NVIDIA CUDA这种GPGPU通用计算编程模型是没有未来的,因为程序员们没时间学习一种新架构。在宣布Intel迎来四十岁生日之后,Intel高级副总裁、数字企业部总经理Pat Gelsinger接受了媒体采访,期间声称CUDA技术最多不过是“计算历史长河中的一朵小浪花而已”。他说:“计算历史上一再重复出现的一个问题是,有人想出了一个很酷的新点子,保证说会带来10倍、20倍的性能提升,但你必须面对全编程模型的麻烦,而在通用计算模型问题上,这一障碍是无法克服的。Gelsinger以Cell处理器架构为例证明其观点:“它确实是一个全新的计算架构,但很多年过去了,程序员们还是很难理解如何为其编写应用程序。”Gelsinger声称,以上就是Intel Larrabee图形芯片为何完全基于IA x86核心的主要原因。他说:“我们不会强迫程序员学习一个全新架构,而是让他们面对自己熟悉的东西,然后对现有编程模型进行拓展,加入新的视觉计算数据并行处理机制。这就是我们在开发Larrabee时的策略。

它是一个IA兼容核心,加入了图形矢量视觉指令集,完全支持原生编程模型和DirectX、OpenGL等API接口。”
Gelsinger还表示独立软件开发商对Larrabee充满了热情,这也证明他们的策略是正确的,适合长期发展
看来Gelsinger博士的观点是提倡循序渐进,不要贸然革命,尤其是不要大张旗鼓地和Intel对着干。
黄仁勋表示,NVIDIA的策略是接手PhysX引擎,并将其移植加入NVIDIA的CUDA显卡通用计算架构中。实际上,目前所有的GeForce 8显卡都支持CUDA,而黄仁勋也确认这些显卡将有能力运行PhysX:“当下,我们正在做物理引擎向CUDA的移植工作,并将在这上面投入大量的人力物力。这

一移植想必将提升我们GPU的销量,即使现在移植尚未完成也有效果。因为,将来移植成功后用户仅仅需要一次软件升级,所有现在支持CUDA的GPU都将能够运行物理引擎……而目前我们所有的GeForce 8系列GPU都支持CUDA。”
黄仁勋认为,PhysX和GeForce的结合将鼓励用户在显卡上花费更多的金钱:“我们预期,这将鼓励用户购买更好的GPU,可能会激起用户购买第二块显卡组建SLI的愿望。而对于那些顶级玩家来说,将鼓励他们购买第三块显卡,未来可能会出现两款显卡负责图像,一块负责物理;或者一块负责图像两块负责物理。”
最后,黄仁勋表示开发者对于PhysX到CUDA的移植非常兴奋:“他们终于可以接触到一款有普遍意义的物理加速引擎。”他在会上没有给出PhysX移植的具体时间表。不过既然这仅仅是软件升级,而NVIDIA现在已经收编了AGEIA的全体工程师,想来这个过程不会太久。
有消息称,NVIDIA正在争取让其通用计算技术CUDA在第三方平台上也能执行,特别是AMD ATI显卡。
GPU加速通用计算虽然前途光明,但现在的形势相当复杂,单是解决方案就有四种:NVIDIA大力推广的CUDA、AMD努力经营的ATI Stream、Khronos Group组织制定的业界规范OpenCL 1.0、微软DX11中提出的DirectX Compute。虽然它们彼此之间也有一定的联系,但如此分散显然不利于发展,而以视觉计算为未来方向的NVIDIA自然希望其技术能放之四海。
事实上,NVIDIA当年收购Ageia之后很快就明确提出,PhysX物理加速技术将会走开放路线,欢迎其它厂商使用,但没有得到丝毫回应,比如Intel提出应该用处理器执行物理效果,AMD则准备发挥自己同时拥有处理器、独立显卡的双线优势。
在近日的一次圆桌会议上,NVIDIA首席科学家Bill Dally解释了为什么用C和CUDA编写的应用程序不能在AMD显卡上工作、但开发人员依然欢迎的问题。他说:“在未来,你可以在更大范围的平台上利用CUDA扩展运行C,所以我觉得(不支持AMD显卡)不会成为根本性的限制。”虽然他没有直接确认CUDA将会登陆AMD平台,但补充说:“我知道有一些项目正在进行准中,能让CUDA运行在其它平台上。”
但竞争对手并不怎么欢迎NVIDIA的这种意愿。AMD发言人Sasa Marinkovic就没有正面回应,只是说:“AMD确实支持OpenCL,因为它是一种开放的、跨平台的标准。GPGPU业界一直在热切期待开放普适的编程标准,而OpenCL满足了这种需要。”
ATI Stream目前的进展远不如NVIDIA CUDA,但AMD显然不会轻易向对手低头。当然,如果AMD能支持CUDA,那也不是坏事儿:NVIDIA可以进一步推广自己的技术,AMD显卡用户也能得到CUDA和PhysX。

4

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值