三大要素促人工智能在端上落地
GMIC GMIC 2017 北京大会于4月27日在国家会议中心拉开帷幕,大会以“天·工·开·悟”为主题,上午领袖论坛首场Keynote由霍金带来《让人工智能造福人类及其赖以生存的家园》的演讲。致力于打造完整AI计算平台的全志科技受邀参加了本次大会,全志AI首席专家林建文在分论坛“AI以致用”上发表了“AI计算平台和生态发展”的演讲。 科技巨擘霍金的到来使人工智能再次成为热议的话题,回顾近几年的行业发展,AI已融入各行各业,AI+家电创造了智能家居的蓝海,AI+汽车打开了智能汽车的风口,AI+制造业加快了工业4.0的前行速度。随着AI的垂直落地,技术研发的难题开始向终端迁移。 三大要素促人工智能在端上落地 算法、计算平台、数据构成了AI的整个产业。从互联网时代到物联网时代,我们迎来了大数据的爆发,而数据是深度学习的基础,驱动着深度学习的发展,当深度学习达到一定精度之后,AI算法便达到了商用水平,这也是特定应用场景的最低门槛,而计算平台是算法落地的关键因素。 前几年,谈到计算平台都是在云端,而终端还没有出现非常合适的嵌入式平台,这形成了一种新的市场趋势。当计算平台放在本地时,它的运行速度要比云上要快,而且可以更好地保护用户隐私,本地计算平台面对两大挑战,一是满足AI算法很大的计算量,二是实现低功耗要求。 AI计算平台的形态也各有所长,最开始的时候用得较多的是CPU,但现在很多云端的服务器都采用GPU的方式,同时很多公司在开发自己的FPGA平台。然而林建文认为,最终的AI计算平台可能是一个ASIC的形态,因为这样才能做到极低的功耗。 林建文表示:“目前,整个AI产业发展的主要矛盾已经迁移到计算平台上。全志认为AI碎片化的产业形态有加剧的趋势,AI可以跟每一个设备、产业进行结合,这决定了通用的AI计算平台会在很长时间里并存,而不是相互替代。” 嵌入式端AI平台面临两大难题 打造合适的、低功耗、高性价比的嵌入式端AI平台,林建文认为有两大难题:一是高密度的计算,深度学习由大数据驱动,训练出来的模型多在百兆以上的规模,这一量级数据模型要求芯片有一个很强的计算能力,另一个是高宽带的吞吐,如此大的数据量与芯片之间的交互,需要一个很高的内存吞吐。 林建文谈到:“在计算平台里,GPU不是一个单纯的芯片,而是以GPU板卡的形态出现,达到独占整个内存宽带的目的,这样才能满足计算要求。在嵌入式端里,内存的带宽要跟其他的功能模块共享,很难实现高带宽吞吐。” 提供完整的SoC系统,全志从小生态做起 受制于技术的瓶颈制约,全志认为单纯从某一技术角度很难解决AI平台面临的问题,全志致力于打造一个完整的解决方案平台,以一个系统的角度去解决这个问题。全志的完整解决方案是一个系统形态,包含了AI的各个组能部分,包括类似人的眼睛和耳朵的接收单元、类似人的大脑的结算单元等。 AI操作系统充当了梳理和控制的角色,优化数据通道。AI计算单元的最低限度是支持Deep Learning,这样才能满足AI的运算要求。而AI接收单元有摄像头、阵列麦克风等器件,全志在语音的预处理上也有很大的投入。 林建文指出:“在嵌入式的AI,全志要提供一个完整的SoC系统,这个系统里必然包含通用或者专用的AI计算引擎、满足开放的要求、承载各种各样不同场景的应用,这就要求提供计算平台的厂商要提供一个足够强的技术支持的服务。” 当我们深入挖掘AI产业时,会发现大的生态正孵化出各种各样的小生态的垂直应用,AI要真正落地,小生态变得非常重要,小生态基于特定的场景,包含一个完整的产业链。例如无人驾驶ADAS, 已经逐渐形成了自己的小生态,ADAS的应用也包括语音的辅助、视觉的辅助等。
|
|