分享

摩尔定律已死,AI万岁!

 月中寻桂QQ 2018-09-23

来源:内容来自「eettaiwan」,谢谢。 


「摩尔定律已死,人工智能万岁!」(Moore's Law is dead, long live AI.)。这是半导体产业最近的一个新口号,就从日前于美国西部半导体展(Semicon West 2018)中一场由应用材料(Applied Materials)赞助的全天活动上响起。


应材新市场与联盟事业群资深副总裁Steve Ghanayem表示,「半导体制程节点的时代列车即将迈入尾声。接下来,从材料到元件——硬体、软体与系统——都必须以全新途径展开更多的合作。」Steve Ghanayem原来负责应材的电晶体和互连部门,目前则致力于寻找收购和结盟的机会,协助该公司朝向摩尔定律(Moore's Law)以外的方向进展。


当然,摩尔定律还没有完全消失;对于几家公司来说,朝向更小型芯片的竞赛也仍持续进行中。


在Semicon West的专题演讲中,应材执行长Gary Dickerson表示,该公司不久将发布新的电晶体材料,它能将漏电流降低三个数量级以上。对于芯片制造商而言,这项消息几乎就像2007年英特尔(Intel)在高k金属闸方面取得进展一样重要。但是,今天这样的进展只会影响到规模越来越小的设计社群和公司。


根据人工智能(AI)记忆体处理器(PIM)芯片设计公司Syntiant执行长Kurt Busch估计,7纳米(nm)芯片投片大约要花1亿美元,而从投片到第一款芯片产出大概要拖延到4个月的时间。「只有很少的公司能负担得起这样庞大的金额。而像我们这样的一家新创公司,可没办法负担1亿美元的天文数字。」


不久前才离开高通(Qualcomm)的伺服器处理器架构师Dileep Bhandarkar说:「我越来越不那么热衷于最新的制程节点了。它们对于像高通这样的公司十分有利,但并不适用于其他所有人。」


柏克莱大学荣誉教授David Patterson表示,「我认为这大概就是摩尔定律终结的情况了。」他指出,台积电(TSMC)的电晶体成本持平,英特尔也在致力于生产10nm芯片,「而有95 %的架构师认为未来都脱离不了专用处理器。」Patterson曾经参与Google TPU的设计。


最近才退休的前英特尔资深微技术影专家Yan Borodovsky则期望能从摩尔定律传承火炬至AI,使其成为指引半导体产业未来道路的一盏明灯。


他说:「我认为超越当今冯·诺伊曼(von Neuman)的架构将因『超越摩尔定律』(more than Moore)而受益。例如,忆阻器交叉开关可望成为神经形态运算的基本组成部份……超越摩尔定律的世界很可能是关于你可以在特定区域放置多少种类的突触以及他们有多么复杂…。」


应材准备发布可大幅降低漏电的电晶体材料(来源:Applied Materials)


为嵌入式系统打造超级电脑


致力于宣传所谓「新认知时代」(a new cognitive era)的IBM认知解决方案暨研究资深副总John Kelly III表示,支援包括AI的2兆美元业务决策,就建立在1.5兆美元的IT业务之上。


Kelly说:「我经历过摩尔定律的早期阶段,但现在发生的一些事情将真正改变这个世界,这些都与人工智能有关……这将带来50年或更久的技术创新,并将推动我们的半导体产业继续向前发展。」


IBM最近为美国政府研究人员打造了13mW Summit系统,这是第一台专用于处理AI任务的超级电脑,其中并搭载部份的辉达(Nvidia) GPU。Kelly说:「你不会再看到其他的传统超级电脑了——因为它们将在未来的运算中融入AI……。」


事实上,机器学习的一大挑战在于推动推论工作,以及最终在网络边缘为功耗受限的处理器进行训练任务。对于像百度(Baidu)、Facebook和Google等巨擘而言,采用当今的GPU可能要花数周的时间才能完成训练模型任务,这可说是个梦魇。


Syntiant的Busch说:「我们将在五年内看到边缘开始执行一些训练。一开始先在资料中心处理神经网络的前几层,而最后几层则在边缘处理——这是不可避免的。」


AI将成为许多产业领域的性能驱动力。针对以30格/秒(f/s)速率进行高解析(HD)视讯串流进行AI处理,大约需要每秒9.4TFLOS的运算效能。Nvidia首席科学家Bill Dally在主题演讲中表示,自动驾驶车将会需要许多像这样的高性能摄影机。


IBM的Kelly宣传认知运算时代来临(来源:EE Times)


从材料到演算法全面思考AI


随着AI设下了更积极的新性能目标,业界也提出了实现这些愿景的新技术方向,包括在新材料、制程、电路、架构、封装和演算法方面的研究。简言之,必须为AI重新思考每一件事。


加州大学洛杉矶分校(UCLA)电子工程学系教授Jason Woo说:「我们一直在考虑将MRAM或ReRAM作为快闪记忆体(flash)的替代方案……但是,AI为采用新兴记忆体与不同材料的交叉架构开辟了新的亮点,可用于实现更多的线性类比微缩,就像可编程的忆阻器一样。」


Woo及其研究团队一直在探索整合逻辑功能的三端比记忆体阵列。这是Syntiant和Mythic等新创公司以及IBM研究人员希望用于AI加速器(基于记忆体内运算)的新型编程元件。


由于AI工作负载的平行本质,也为封装技术带来了绝佳机会。为资料中心进行训练提供全光罩芯片设计的新创公司Cerebras Systems技术长Gary Lauterback说,我们不应该局限于单芯片设计,封装方面也有很大的潜力,可以克服在Denard微缩中遇到的瓶颈。


许多最新的资料中心芯片都采用了2.5D堆叠的逻辑和记忆体。同时,台积电正推出用于智能型手机和其他装置的众多晶圆级扇出封装版本,工程师还需要一个能因应AI需求的解码器。


Bhandarkar说:「从成本和性能来看,我还找不到任何理想的多芯片技术。至今见过最好的要算是英特尔的EMIB,但它也并非所有人都可以使用。」


Dally透过缩减神经网络的大小及其矩阵数学的精度,快速地简化了演算法与任务。他说,采用混合精度数学,超级电脑老将Jack Dongarra因而能在Summit系统上带来exaFLOPS级的AI性能。


Nvidia的研究人员以低至2位元展现浮点运算的愿景,而Imec研究机构则进一步探索单一位元的途径。


Dally补充说,神经网络本身可以从根本上简化,以减少运算量。他说,即使只使用了10%的神经网络权重和30%的启动效能,其准确度也不至于降低到让人无法接受。SqueezeNet就是针对嵌入式AI的案例之一。


Nvidia的Dally说神经网络需要减少一些权重(来源:EE Times)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多