分享

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

 超能网 2020-10-28

人工智能是当下最火热的话题,从手机到超算都在其中增加AI的AI运算能力。英特尔在台北电脑展上推出了全新的Ice Lake处理器,其中增添的AVX512指令集以增强其AI运算性能。不过英特尔的想法不止于此,根据Tom's Hardware的报道,英特尔在位于以色列海法的研发中心推出了一款针对推理运算的Nervana神经网络处理器,简称NNP-I。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

图片来自Tom's Hardware

这款处理器与常见的神经网络处理器不同的是,它将此前发布的Ice Lake处理器与Nervana神经网络处理器结合,组成这款NNP-I处理器。但这款处理器与Ice Lake处理器有很大的不同,英特采用了Ice Lake处理器的基础设计并做出了修改,将其中的Gen 11核显及显示模块去掉,将其替换成针对推理运算的AI加速器。同时英特尔还在这款处理器上添加了DSP引擎,用于未针对固定功能加速器优化的算法,为其他类型的AI运算提供兼容性。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

而CPU部分依旧采用多个英特尔Sunny Cove架构的x86核心,但并不知道其核心数目。英特尔产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为AI加速器腾出额外的位置,所以这款处理器可能采用了两个处理器内核。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔提供了包括m.2等几种形式的加速卡样式,因此它可以安装在服务器主板的标准m.2接口或PCIe扩展卡上。与一些专为AI设计的定制芯片不同,这款产品几乎兼容所有的现代服务器,甚至可以根据需要为服务器添加多个NNP-I模块。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔也在软件方面进行了优化,在使用NNP-I加速器时,服务器可将全部神经网络推理运算转移到NNP-I处理器中,并在任务完成时通知服务器中的Xeon主处理器。而且由于NNP-I处理器拥有完整的I/O模块(拥有PCH),所以其可以访问处理所需的数据,而且英特尔称这并不会受到PCIe x4带宽的影响。

由于内部有全新的Sunny Cove架构的x86内核,所以NNP-I也有AVX512指令集,支持VNNI深度学习指令,所以它技术适用于任何类型的AI负载,英特尔也提供了编译器,为NNP-I加速器提供定制代码。如PyTorch及TensorFlow等机器学习框架,NNP-I加速器可以几乎无改动的运行支持这些框架的代码。

英特尔Ice Lake处理器的TDP为28W,而m.2接口有15W的功耗限制,但由于其可以插在PCIe扩展卡上,所以NNP-I加速器可以运行在更高的功耗下,以提供更好的性能。而具体性能方面英特尔并没有透露,但英特尔已经向早期客户提供样品,并在今年晚些时候大批量生产。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多