基本组成 大致分为五层:应用、基础应用、软件框架、模型编译器和硬件。
基础应用有三大类:计算机视觉、智能语音和自然语言处理。
软件框架层是算法的工程实现和模块化封装,为应用开发提供集成软件工具包。 编译器是底层硬件和软件框架、以及不同软件框架之间的桥梁。 软件框架 主流的深度学习训练软件框架主要有TensorFlow,MXNet,Caffe/2+PyTorch等, 分别由Google, Amazon, facebook和Microsoft主导的。 开源框架都是企业主导的,基金会和社区版的还不行。
就像Andoroid的主导了智能手机的OS市场, Google的TensorFlow又开始领先于AI世界。 目前的技术热点主要是模型互换、模型迁移、更高级的API和模型的集群并发计算等。
基于深度学习的推断,计算量相对训练过程小很多,但仍涉及到大量的矩阵卷积、非线性变换等运算,在受限环境下,业界也开发了众多开源的终端侧软件框架。
深度学习算法还在不断完善中,新理论也在不断出现,如胶囊网络、生成对抗网络和迁移学习等。 编译器 模型编译器就是通过扩充传统编译器,增加和优化面向深度学习网络模型的专属功能,即用网络模型编辑器解决适应性问题,用中间表示层解决可移植性问题。
网络模型的表示规范目前分为两大阵营,一是Open Neural Network Exchange(ONNX,开放神经网络交换),二是Neural Network Exchange Format(NNEF,神经网络交换格式)。 硬件 AI计算芯片分为CPU,GPU,FPGA、ASIC和类脑芯片等,通用性依次降低,计算/智能能力依次提高。
以服务形式提供人工智能服务主要有两类,即平台类的服务(主要包含GPU云服务,深度学习平台等)和软件API形式的服务(智能语音语类服务和计算机视觉服务)。 主要问题 在算法层面,深度学习算法模型存在可靠性及不可解释性问题。 在数据层面,主要存在流通不畅、数据质量良莠不齐和关键数据集缺失等问题。 在软件框架层面,实现深度学习应用落地的推断软件框架质量参差不齐,制约了业务开展。 在编译器层面,各硬件厂商的中间表示层之争成为技术和产业发展的阻碍。在AI计算芯片层面,云侧和终端侧对计算芯片提出了不同的要求。 技术趋势 迁移学习的研究及应用将成为重要方向。 深度学习训练软件框架将逐渐趋同。 开源推断软件框架将迎来发展黄金期。 中间表示层之争将愈演愈烈。 AI计算芯片朝云侧和终端侧方向发展。 行业巨头以服务平台为核心打造生态链。 |
|