跳转到主要内容

深度神经网络

【白皮书】使用赛灵思 Alveo 加速器卡 加速 DNN

judy /

Xilinx® 深度神经网络 (xDNN) 引擎使用 Xilinx® Alveo™ 数据中心加速器卡提供高性能、低时延、高能效的 DNN 加速。通过保持较低能源成本以及最大限度地减少实现过程中所需的特定加速器的数量,可以显著降低总体拥有成本 (TCO)。

赛灵思 Alveo 加速器卡在高性能、高能效、灵活的机器学习 (ML) 推断方面表现出色。xDNN 处理引擎已被开发用于一般执行卷积神经网络 (CNN),如 ResNet50、GoogLeNet v1、Inception v4 - 甚至包含自定义层的 CNN。

本白皮书概述了 xDNN 硬件架构和软件堆栈,以及支持“业界一流”高能效推断声明的基准数据。 为读者提供指导,帮助其实现 Alveo 数据中心加速器卡上的结果再创造。

赛灵思最新深度神经网络推理器xDNN参数曝光

judy /

<strong>继年初发布新一代FPGA框架后,FPGA巨头赛灵思在Hot Chips大会揭露了最新一代深度神经网络推理装置xDNN的部分规格参数。随着更多定制芯片的发展,现如今AI芯片的战火已经蔓延到推理领域。赛灵思的xDNN可配置、可复写,进行多任务处理,还配有Tensor内存。</strong>

目前来看,FPGA可能没有像一些人预期的那样在深度学习的训练空间中占据一席之地,但AI推理的低功耗、高频率需求非常适合可重复编程硬件的性能曲线。

然而,现在人们越来越专注于推理与训练的新体系架构,FPGA也在努力在定制化硬件领域保持领先,而这要靠一些高级编程工具来降低编程的复杂度。

目前,要判断通用CPU、GPU、FPGA及定制芯片如何才能吸引最广泛的用户群还为时尚早,但基于云的FPGA以及不断发展的高级FPGA集,越来越多地作为实验工具使用,让FPGA在面向推理的任务中占据了一席之地。

考虑到所有这些因素,FPGA制造商Xilinx近日在Hot Chips大会上发布了Xilinx深度神经网络推理(xDNN)设备的一些参数细节,公司将在接下来10月1日举行的开发者大会上发布更多信息和性能基准。