人工智能技术改变了我们的生活,而说到 AI 背后的算力,人们经常会先想到 GPU。从 2019 年英特尔为其第二代至强可扩展处理器增添了内置的深度学习加速技术后,原本定位通用计算的 CPU 芯片,也加入了为 AI 加速的行列。
今天,代号为「Sapphire Rapids」的第四代至强可扩展处理器也在中国迎来发布首秀,除了一系列微架构的革新和技术规格的升级外,新 CPU 对 AI 运算「更上层楼」的支持也格外引人关注,其背后的技术助力,也是英特尔在这代产品中增添的全新内置 AI 加速器 —— 英特尔高级矩阵扩展(AMX)技术自然也成为了焦点。
作为焦点,当然要拿出实力来证明自己的价值 —— 在发布会上,英特尔透露的第四代至强可扩展处理器的基础算力平均提升值为 53%,而在 AMX 的助推下,其在 PyTorch 上的 AI 实时推理速度,可提升至上一代产品(FP32)的 5.7-10 倍,训练性能提升最高也能提升到上一代产品的 10 倍…… 这意味着,这款新至强,把业界顶级 CPU 的性能门槛一下子提高了不少。
新一代英特尔 CPU 为 AI 任务处理找到了新方向。现在,英特尔可以通过新 CPU 和 GPU 实现对各类 AI 任务的加速。为实现这些提升,英特尔引入了一系列内置加速单元。
多种加速器加持,提升 AI 训练、推理及端到端性能
AI 的热度,从 AlphaGo 一鸣惊人后,一直就没有减退。最近一段时间,人们都在谈论 ChatGPT 等「大模型」带来的革命性体验。由预训练模型方法推动的 AI 技术正在向跨任务、跨模态的方向演进,已成为当下 AI 技术发展的重要趋势。
然而,大模型虽然带来了前所未有的 AI 能力,又对算力提出了无穷无尽的需求。芯片制造商和科技公司一直在寻找提升 AI 应用效率的方法。GPU 更多解决的,是训练效率,是探索 AI 算法边界的能力,而 CPU,似乎更适合在 AI 应用的规模化部署和实践上发挥重要作用。
自从四五年前开始在 CPU 中内置针对 AI 进行加速的专用运算单元或指令集后,英特尔就一直相信,如果想要在更为广泛的行业中真正推进 AI 应用的普及,那么就应该充分利用现阶段应用和部署最为广泛的 IT 基础设施和架构,也就是要更加充分地利用 CPU 的资源。毕竟使用 GPU 和其他专用加速器的成本以及知识和人才门槛都非常高。相比之下,CPU 内置 AI 加速能力,主攻 AI 推理加速,并搭配以更为简单易用、能够部署和优化难度的软件工具,会是一条更为行之有效的路径。
它是这么想,也是这么做的 —— 首先,从 2017 年第一代至强可扩展芯片开始,英特尔就开始利用英特尔高级矢量扩展 512 技术(AVX-512 指令集)的矢量运算能力对 AI 进行加速上的尝试,到 2018 年英特尔在第二代至强可扩展芯片导入深度学习加速(DL Boost)技术,更是让至强成为了首款集成 AI 加速有力的主流数据中心级 CPU,或者说:CPU 加速 AI 的代名词。
2020 年通过扩展出 bfloat16 加速功能,面向多路服务器的第三代至强可扩展处理器在推理加速能力之外,又增加了训练加速能力,已被证明可以帮助业界大量 AI 工作负载实现更优的性能和功耗比。
就在大家认为英特尔在 CPU 加速 AI 的技术创新和投入会止步于此的时候,第四代至强可扩展芯片,又带来了矩阵化的算力支持 ——AMX。
第四代英特尔至强可扩展处理器
这种全新内置 AI 加速器的出现,进一步验证了「与其增加 CPU 内核数和时钟频率,加入和更新专用计算单元对提升 AI 工作负载性能更有效」这一思路。正如前文所述,第四代至强可扩展芯片不仅可借助 AMX 实现相当于上一代芯片(FP32)10 倍的 AI 性能提升,与前两代产品使用的深度学习加速技术相比,其理论性能(每秒操作量)最高也可以达到其 8 倍之多。
机器学习包含大量的矩阵计算,在主打通用计算的 CPU 上,此类任务会被转换为效率较低的向量计算,而在加入专用的矩阵计算单元后,至强 CPU 的 AI 能力有了巨大的提升。因此,AMX 可以被视为至强 CPU 上的「TensorCore」—— 从原理上看,CPU 上的 AI 加速器实现的目的和 GPU、移动端处理器上的类似。由于 AMX 单元对底层矩阵计算进行加速,理论上它对于所有基于深度学习的 AI 应用都能起到效果。
如果说 AMX 为至强 CPU 带来的是直观的推理和训练加速,那么第四代至强可扩展芯片内置的其他几种加速器,就是为 AI 端到端应用加速带来的惊喜。
这是因为在真正完整的 AI 应用流水线中,任务往往会从数据的处理和准备开始,在这一阶段,第四代至强可扩展芯片内置的数据流加速器(DSA),可让数据存储与传输性能提升到上一代产品的 2 倍,而专门针对数据库和数据分析加速的英特尔存内分析加速器(IAA),也可将相关应用的性能提升到上一代产品的三倍(RocksDB);数据保护与压缩加速技术(QAT),则能在内核用量减少多达 95% 的情况下将一级压缩吞吐量提升至原来的两倍。这些技术的使用,也有助于 AI 端到端应用性能的整体跃升。
此外,随着 AI 应用在更多行业,包括金融、医疗等数据敏感型行业的落地,人们对于数据安全合规的要求逐渐提高,联邦学习等技术逐渐获得应用。在这一方面,至强可扩展处理器集成的专攻数据安全强化的加速器 —— 软件防护扩展(SGX),也是大有用武之地,它的突出优势就是可以为处理中或运行中的敏感数据和应用代码提供与其他系统组件和软件隔离的安全飞地,实现更小的信任边界。
这种技术对于 AI 而言,最核心的价值就是可以让有多方数据交互、协作的 AI 训练过程变得更加安全,各方数据都可以在其拥有者的本地参与训练,用于训练的数据和模型会被安全飞地所保护,最终模型可以在这种保护下提升精度和效率,但为其演进做出了关键贡献的数据则会一直处于「可用而不可见 」的状态下,以确保其中的敏感和隐私信息的安全性。
在这么多内置加速器的支持下,可以说,从数据预处理,到训练,再到推理,最后到整个 AI 应用的安全保护层面,第四代至强可扩展处理器都实现了更全面的功能覆盖和重点增强。与此同时,英特尔还在进一步强化 AI 加速的开箱即用优势:通过与大量第三方进行合作,英特尔共同优化了 SAP HANA、Microsoft SQL Server、Oracle、VMware Cloud Foundation、Red Hat OpenShift 等主流应用,很多主流软件库和开源机器学习框架,以及大多数云服务也对这款英特尔架构上的新品做好了优化,开发者可以直接使用新硬件开发和部署 AI 算法。
从开发者的角度看,使用第四代至强可扩展处理器实现优化加速的门槛也确实很低:人们只需使用集成在 TensorFlow 和 PyTorch 中的库,无需任何额外工作即可激活至强芯片内置 AI 加速的能力。此外,只需更改几行代码,开发人员就可以无缝地加速单节点和多节点配置中的 Scikit-learn 应用。
全能服务器CPU
除了有加速器傍身专攻特定应用负载外,第四代至强可扩展处理器在基础性能上也是可圈可点。
例如,它采用了与英特尔第 12、13 代酷睿同款的 Intel 7 制造工艺(改进版 10nm 制程)和 Golden Cove CPU 架构,同时首次引入 chiplet 小芯片封装方式,最多可搭载 60 个核心,改用新的 Socket E LGA4677 封装接口,集成了 112MB 三级缓存,功耗最高达到 350W。
新一代至强还带来了对八通道 DDR5-4800 和 PCIe 5.0 的支持,并包含 CXL 1.1 高速互连总线,可选集成最多 64GB HBM2e 内存。
上述这些针对 IO 和存储的新技术的引入,使得第四代至强可扩展处理器具备了能够打破带宽瓶颈的 I/O 能力,让使用者可以充分利用处理器的代际性能提升满足 AI 平台等业务对于通用算力的苛刻需求。
四代至强可扩展处理器平台特性
综合这些基础芯片架构规模上的升级和革新,以及各种加速器的特定加成效果,第四代至强可扩展处理器的基础算力相比上一代产品可提升 53%,而其能效,或者说每瓦性能,相比上一代产品也提升了 2.9 倍,这意味着更高的效率,更低的功耗和更优的投资回报率。
英特尔表示,新一代 CPU 还可以催生出前所未有的应用,帮助 AI 算法直接利用非结构化数据进行实时分析。在金融、医疗、零售等行业中,人们可以利用机器学习作出更加精确的投资决策,降低术后并发症风险,更好地理解消费者的需求。
构建下一代异构AI算力
在不断寻求创新业务的过程中,人们对于算力的需求相比以往正变得更加迫切。而且这种算力也必须要兼顾到通用和专用的不同方向。因此英特尔架构也正在就此有针对性的演进,这在本次第四代至强可扩展处理器的发布会上就可见一斑 —— 对科学计算和 AI 加速有更苛刻要求的用户,也等来了英特尔数据中心 GPU 旗舰产品 ——MAX 系列的发布。
其实在过去几年里,英特尔已经陆续推出了一些异构产品,例如 2022 年英特尔旗下的 Habana Labs 正式发布了用于深度学习训练的 Gaudi2,随之被应用在 AWS 上。同年夏天主打视觉云应用的数据中心 GPU Flex 系列也在视频处理、云游戏和视觉 AI 推理应用中初露头脚,但很多「发烧级」用户最期待的还是数据中心 GPU Max 系列,今天,这款采用了突破性设计,采用多芯片集合的方式,混合 5 种工艺,晶体管数量超过千亿的 「怪兽」,终于来了!
GPU 产品线的完善,也使得英特尔成为业界唯一一家能提供横跨 CPU、GPU、ASIC、FPGA 四大类型芯片计算解决方案的供应商,可为智能数据中心提供基于任何场景、需求的产品组合。
强大的硬件之外,英特尔还利用 oneAPI 软件体系实现了对异构硬件的统一编程和管理,构建了能够灵活调配、无缝协作和低门槛的 AI 开发工具。通过 XPU 硬件、oneAPI 软件及 UCIe 开放标准的布局,英特尔已经打造出了软硬一体化的完整生态。
随着新一代芯片发布,我们或许将看到未来 AI 计算的形态发生重要转变。(来源:机器之心)
英特尔在自己最擅长的 CPU 上完成了一次 AI 计算的革新。人工智能技术改变了我们的生活,而说到 AI 背后的算力,人们经常会先想到 G
12月27日, 2022中国金融科技年会暨第十三届金融科技应用创新奖颁奖典礼盛大举行,曙光绿色节能液冷数据中心解决方案,荣获2022科技赋能金
12月24日,VR品牌PICO线下体验店于重庆来福士购物中心正式开业。该店面积超过220平米,开业当天就吸引了众多用户到场体验最新的VR产品和内容,
近日,百度智能云发布5款云服务器BCC(Baidu Cloud Compute)实例,搭载第三代AMD EPYC 处理器(Milan),旨在面对更多元化的计算应用
来源:InfoQ 作者:万佳从传统关系型数据库到云数据库,数据库在不断演进。与此同时,它也发挥着越来越重要的作用。从云计算、新媒体、音
当二十大报告提出建设数字中国时,中国企业的数字化转型已然迈入新样态。随着大数据、人工智能、云计算、物联网、5G等新技术快速发展,新技
图片来源:intel官网关注中国医药行业发展动态的人可能都还记得:2021年6月经国家食药监管理局批准上市的某新型靶向疗法,曾在社会上引起长
安全、应急新部署二十大胜利召开,关于安全与应急有了新的指示和部署。在健全国家安全体系方面,完善风险监测预警体系、国家应急管理体系等
10月1日,知名硬件基准性能测试软件安兔兔公布最新一期跑分榜单,腾讯ROG游戏手机6天玑至尊版强势登顶,以平均112万+的成绩战胜iQOO 10 P
客户需求国家《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》第五十四章全面提高公共安全保障能力第一节提高安
近日,ROG正式发布了腾讯ROG游戏手机6天玑系列新品,此次共推出ROG6天玑版和ROG6天玑至尊版两款实力新品,均搭载联发科天玑9000+ 5G移动平
众所周知,玩游戏手机发烫会引发很多痛点,不仅让操作手感大打折扣,而且还会导致处理器降频,游戏画面掉帧、卡顿。因此,散热绝佳的游戏手
9月19日,ROG6天玑系列新品游戏手机正式发布,该系列新品的亮点之一便是ROG6天玑至尊版高达114万+的安兔兔跑分。作为ROG首款搭载联发科天玑
备受手游玩家期待的ROG6天玑系列终于在9月19日与大家正式见面。此次官宣的产品分别是ROG6天玑版与ROG6天玑至尊版,从核心配置到散热设计均
2022年9月19日——致敬经典,与超级英雄并肩。今日,ROG玩家国度发布限量款游戏手机——ROG 6蝙蝠侠典藏限量版,以超炫设计和高能实力为玩
9月19日,ROG玩家国度天生无惧发布会正式召开,并推出与半导体巨头联发科共同合作的腾讯ROG游戏手机6天玑系列新品。相较于千篇一律的游戏手
万千信仰玩家期待的ROG6天玑系列已和大家正式见面。作为ROG首款搭载联发科天玑处理器的机型,其在硬件配置及设计上有何亮点,实际使用时可
深度定制,彩蛋满满,限量1000台腾讯ROG游戏手机6蝙蝠侠典藏限量版日前,ROG玩家国度与华纳兄弟联袂推出ROG 6蝙蝠侠典藏限量版游戏手机,
9月19日 - 华硕玩家国度(ROG)于今日首播敢于挑战极限:打造全球领先游戏手机视频,该品牌设计故事展示出全新ROG6天玑系列的诞生过程。全
5G和人工智能都是新一轮科技革命和产业变革的重要驱动力量。随着5G网络的大规模商用,加速的服务创新对网络智能提出了更高的要求。运营商如
第一人工智能网版权所有
客服1QQ:1285685317 客服2QQ:652433159