SNPE(Snapdragon Neural Processing Engine),是高通公司推出的面向移动端和物联网设备的深度学习推理框架。 SNPE提供了一套完整的深度学习推理框架,能够支持多种深度学习模型,包括Caffe、TensorFlow和ONNX等,同时还支持多种模型转换工具,如SNPE模型优化器(SNPE Model Optimizer)和ONNX模型优化器等,能够将模型转换成SNPE可执行格式,提升模型在移动端和物联网设备上的性能和效率。 SNPE还支持多种硬件平台,包括高通骁龙平台、ARM平台、Intel平台等,能够充分利用底层硬件的优势,提升深度学习推理的效率和速度,同时还支持多线程和多异构处理,能够充分发挥多核心和异构计算的优势。 总之,SNPE是一套面向移动端和物联网设备的高效深度学习推理框架,能够支持多种深度学习模型和多种硬件平台,为移动端和物联网设备上的深度学习应用提供了有效的支持。 Purpose本文档提供了SnapdragonTM神经处理引擎(SNPE)软件开发工具包(SDK)用户指南和API参考指南。 CapabilitiesSnapdragon神经处理引擎(SNPE)是用于执行深度神经网络的Qualcomm Snapdragon软件加速运行时。 使用SNPE,用户可以:
Model Workflow模型训练在流行的深度学习框架上进行(SNPE支持Caffe,Caffe2,ONNX和TensorFlow模型。)训练完成后,训练的模型将转换为可加载到SNPE运行时的DLC文件。 然后,可以使用此DLC文件使用其中一个Snapdragon加速计算核心执行前向推断传递。 基本的SNPE工作流程只包含几个步骤: SNPE(Snapdragon Neural Processing Engine)框架的工作流程如下:
总之,SNPE框架的工作流程包括模型准备、模型加载、数据输入、模型推理和结果输出等步骤,能够支持多种深度学习模型和多种硬件平台,为移动端和物联网设备上的深度学习应用提供高效的支持。 |
|
来自: 昵称55828825 > 《待分类》