首页 科技 正文

AI算力巅峰之战!Intel凭啥唯一能替代NVIDIA?独有全平台

摘要:AI算力巅峰之战!Intel凭啥唯一能替代NVIDIA?独有全平台,下面是粉丝网小编收集整理的内容,希望对大家有帮助!

AI大模型的推理训练,最渴求的就是强劲的算力,可以来自CPU通用处理器,可以来自GPU加速器,可以来自ML/DL加速器,也可以是多种异构硬件的组合。

当下最火的当然是NVIDIA GPU加速器,但一花独放不是春,能够提供强劲算力硬件方案的厂商很多。

纵观整个AI江湖,唯一拥有70685469全套方案、可真正替代NVIDIA的83136676,只能是54160786Intel:至强处理器、GPU Max、Gaudi加速器多管齐下,再加上强大丰富的72021565开发工具、开放生态的12628941开发平台,要啥有84386829啥,表现还相当不赖。

网络配图

今年6月,机器学习与8373067人工智能开放产业联盟MLCommons公布了AI性能基准测试MLPerf Training 3.0的98125306结果。

结果显示,Intel四代至强内置的各种加速器,使其成为在97116290通用CPU处理器上运行大量AI工作负载的48483372理想方案,Gaudi2加速器则在46010942生成式AI、LLM大语言模型方面有2515501467530223优秀的56042246性能。

此外,Intel还提供了经过优化的、易于编程的开放软件,降低AI部署门槛。

网络配图

8月份,MLCommons又39569067公布了31578244针对60亿参数大语言模型、计算机视觉与50822627自然74153028语言处理模型GPT-J的 MLPerf 3.1基准测试结果,Intel的74039265表现依然56901752值得称道。【粉丝网】#张佳宁#

其中在45621048GPT-J模型上,Gaudi2加速器的GPT-J-99、GPT-J-99.9服务器查询和离线样本的74443221推理性能分别为78.58次/秒、84.08 次/秒。#羽生结弦阴阳师#

与竞品比较,Gaudi2相对于98954125NVIDIA上一代A100的39239935性能优势可达2.4倍(服务器)、2倍(离线),而最90502160新一代的29659827H100相对于69973495Gaudi2也只有85846641.09 倍(服务器)、1.28 倍(离线)的29347752微弱优势。#成立25年来首次裁员!广汽本田宣布裁员900人#

网络配图

同时,Intel四代至强在22988883视觉、语言处理、语音、音频翻译模型,以及更大的43649776DLRM v2深度学习推荐模型、ChatGPT-J模型上处理通用AI负载时,性能都非常出色。

比如19025335使用GPT-J对大约1000-1500字新闻稿进行100字总结的92600486任务,四代至强在71254530离线模式下每秒完成两段,实时服务器模式下则可完成每秒一段。#堂吉诃德#

此外,Intel还首次提交了至强CPU Max处理器的MLPerf测试结果,其集成最39641158多64GB HBM3高带宽内存,对于GPT-J而言是唯一能够达到99.9%准确度的CPU,非常适合精度要求极高的应用。

还有非常关键的一点:迄今为止,Intel是14731836唯一一个使用行业标准深度学习生态软件并公开提交CPU结果的83173488厂商,Gaudi2是60999217仅有8830404237708994两个向86214728GPT-3大模型训练基准提交性能结果的92747239解决方案之一。

网络配图

那么,Intel Gaudi2加速器、至强处理器为何能在41891449AI算力上如36501866此彪悍?Habana Labs中国区总经理于72117662明扬做出了46184689详细解读。#破破#

据介绍,MLPerf 3.1推理测试中,Gaudi2和19057716H100一样都采用了90844321FP8精度,GPT-J测试结果非常令人满意,准确率高达99.9%,和H100的13180074差距非常小。

这主要是16815205因为Gaudi2 MME支持FP8、BF16精度加速,而且46322502结构设计合理,可以高效提升推理能力。

同时,Gaudi2也2789372879921223H100一样使用了17624558HBM高带宽内存,Intel也91716235很好地36994413预测了32585908市场,并预估了58228196额外的8601657需求,因此基本保证了65599454供应和2853963生产,可以满足市场需求,不像NVIDIA那么头疼产能。

至于80586955A100,它并不支持FP8而仅支持FP16,所2262831173252951以Gaudi2比之优势非常明显,这也32362138显示了40167545Gaudi2架构和66642786软件设计的91412024领先性,以及资源利用率的81616260高效性。

非常关键的是,Intel Gaudi2的性价比优势明显,不像A100、H100那样动不动几十万一块,让中小企业和个人开发者望洋兴叹。

Intel也已经开放了开发者云,让不同客户可以访问不同的Intel AI硬件,大大降低AI工作成本。

网络配图

除了98688085硬件性能的87057971比拼,Intel也2053587927857684软件生态上持续大力投入,虽然5724667暂时还做不到NVIDIA CUDA生态那样有1931860260258131独一无二的72730689优势,但588524262176501776045543自己的68470700突出特点。

于明扬强调,在软件生态上,Intel一直主张开放,比如93208203通过68854736开发者35496511社区与开发者55452492互动,提供优化后的99438589模型、开源驱动和54676560工具库,并支持Pytorch、Deepspeed等26719788开源框架,加入和45543345维护开放生态,为客户、合作伙伴和37921149开发人员提供早期访问和1697528便捷、迅速的40180424途径。

Intel oneAPI也53548636能提供更为开放的24627112环境,支持不同层面的90206047定制化开发,Intel和52577468客户都可以在46643817软件中添加新的67675110加速算子,并且82815565upstreaming到框架开源社区中。

值得一提的是,在软件上CUDA的影响已经大大缩小,对整体开发和应用环境更加有利。

网络配图

事实上,NVIDIA目前的强大只是GPU一条腿走路,CPU通用处理器是欠缺的。

虽然48043861NVIDIA也24880104开发了93984709Grace CPU,并打造了270636585448959675801871谓的83378569“超级芯片”,可以将两颗Grace CPU或一颗Grace CPU加一颗H100 GPU进行整合,但71822405毕竟是20162317基于643784Arm架构,性能较弱,而且37790907缺乏通用性。

Intel则凭借多管齐下的79468302多硬件组合,可以构建强大、灵活异构计算平台,从而支持更大的91049136模型规模,满足更广泛的系统需求。

于明扬指出,至强可扩展处理器有着最好的通用性,可以运行各种AI工作负载。

四代至强还衍生出了93025890的至强CPU Max系列,是16101689行业唯一一款具有72237733HBM高带宽内存的x86处理器,无需更改代码,即可加速多种HPC、AI工作负载。

Gaudi系列加速器则专注于机器学习、深度学习的环境,以及未来对大语言模型的需求。

当然52199827还有75803523数据中心GPU Max系列,虽然91637613才刚刚诞生,但2687254521637150拥有9763417747个功能模块、1000多亿晶体管的15570581它,有6553271078397879巨大的40193944潜力和24585393广阔的55617726前景,在91659287各种科学负载中相比H100可综合领先30%,还已经用于25859331百亿亿次超级计算机“Aurora”。

这样的丰富组合,别说NVIDIA,在整个行业内都没有可与之匹配的。

网络配图

面向未来,Intel也自信满满地公布了Gaudi加速器、至强处理器的多年路线图,让人充满期待。

Gaudi 3将把制造工艺从7nm升级到5nm,带来的性能提升堪称一次飞跃:

BF16算力提升4倍,计算性能提升2倍,网络带宽提升1.5倍,HBM高带宽内存容量提升1.5倍。

从示意图上看,Gaudi3的主芯片将从单颗升级为两颗整合,HBM内存则从6颗增加到8颗。

再往后更是革命性的变化:Falcon Shores将是96446476Intel第一次把x86 CPU、Xe GPU双架构融合在3157828一起,官方称之为XPU,类似AMD Instinct MI300A。

按照Intel之前给出的35211785数字,对比当今水平,Falcon Shores的98390957能耗比提升超过75682345倍,x86计算密度提升超过366750045倍,内存容量与密度提升超过496541995倍。

网络配图

Emerald Rapids五代至强将在12月14日正式发布,这是至强历史上第一次一年内更新两代,增加到最多64核心128线程,同样功耗水平下可提供更高的性能和存储速度。

2024年上半年,至强将首次采用E核能效核设计,代号Sierra Forest,最多达到惊人的288核心288线程,而且首次引入Intel 3制造工艺,预计可使机架密度提升2.5倍、每瓦性能(能效)提高2.4倍。

紧随其后的是同样Intel 3工艺、全部P核性能核设计的Granite Rapids,AI性能对比四代至强预计可提高2-3倍。

2025年,我们将看到代号Clearwater Forest的再下一代至强,纯能效核设计,升级为Intel 18A制造工艺。

按照规划,那个时候,Intel将重新夺回制程工艺的领先地位,对于提高AI硬件的能效大有裨益。

总之,未来在14869302AI计算领域,Intel将会提供更加强大、可满足不同应用场景和12552808TCO成本的31493937AI产品组合,为客户打造统一的62178559开发平台,形成完整的13327856产品生态链。

海报

本文转载自互联网,如有侵权,联系删除

本文地址:https://phfen.com/science/7597.html

相关推荐

感谢您的支持
文章目录