AMD EPYC第四代Genoa系列已经成为新华三打造智能训练、推理集群的动力源之一。
AMD联手国内头部服务器厂商新华三,将AMD EPYC处理器集成到新华三智能算力旗舰R5500 G6 AI服务器、新华三混合算力引擎R5350 G6 AI服务器中,成为当下用户能同时满足训练、推理算力需求,缓解算力焦虑的理想解决方案之一。
那么,在训练和推理对于算力需求的侧重点不尽相同的当下,大模型所需的算力需要怎样的芯片来承载?CPU和GPU将在其中扮演怎样的角色?AMD EPYC处理器加速AI训练、推理的杀手锏是什么?我们试图从这一处理器出发,找到这些问题的答案。
AI算力需求升级直面训练、推理痛点
综上,大模型时代算力需求正发生变化,CPU也焕发出新的生命力。
AMD EPYC为AI推理提供全栈支持
AMD为满足用户的推理需求提供了一大可行且性价比更高的方案。
第四代AMD EPYC 9004系列处理器代号Genoa,实现了核心架构升级,使每个时钟周期的指令总数增加了约14%。
再加上,AI推理落地到更多垂直行业时,因业务场景不同,其应用的表现形式会更加复杂,对于更快、更高效的内存需求更为迫切。AMD EPYC处理器搭载了DDR5内存,内存吞吐量总计达到了AMD上一代产品的2.25倍,使得数据传输速率提升,降低任务响应的时延。

AMD EPYC处理器(图源:AMD)
并且,AMD EPYC处理器还具备更好的兼容性,可无缝切换目前主流的各种CPU AI的库,如OneDNN和OpenVINO等。
新华三打造的AI服务器H3C UniServer R5500 G6、R5350 G6,集成了AMD EPYC处理器,可同时满足用户搭建训练、推理集群的算力需求。
值得一提的是,根据新华三去年发出的新闻报道显示(39项世界第一!新华三再次登顶MLPerf国际权威AI基准性能竞赛),基于96核AMD EPYC 9654 CPU的R5350 G6 AI服务器,在国际权威AI基准评测组织MLPerf公布的最新AI 推理(Inference V3.0)榜单上,夺得了ResNet50(图像分类)、RetinaNet(目标检测)、3D-Unet(医学图像分割)、BERT(自然语言处理)等模型任务21项第一,可应对人工智能不同场景下对异构算力的需求。

新华三混合算力引擎H3C UniServer R5500 G6 AI服务器

新华三混合算力引擎H3C UniServer R5350 G6 AI服务器
结语:弥补AI算力缺口AMD、新华三聚力破局