新智元AI WORLD 2018世界人工智能峰会 倒计时7天 新智元将于9月20日在北京国家会议中心举办AI WORLD 2018世界人工智能峰会,计算机视觉领域先驱、约翰霍普金斯大学认知与计算机科学系教授Alan Yullie将亲临会场,发表主题演讲《深度网络及更多:大数据不是万能的》。随着计算机视觉技术的发展,如何利用小数据乃至无数据解决特定应用场景问题,将是最新的一个关键点,欢迎到现场交流!
新智元报道 来源:MIT 编辑:肖琴、闻菲 【新智元导读】MIT韩松团队和Google Cloud的研究人员提出AutoML模型压缩技术,利用强化学习将压缩流程自动化,完全无需人工,而且速度更快,性能更高。模型压缩是在计算资源有限、能耗预算紧张的移动设备上有效部署神经网络模型的关键技术。 在许多机器学习应用,例如机器人、自动驾驶和广告排名等,深度神经网络经常受到延迟、电力和模型大小预算的限制。已经有许多研究提出通过压缩模型来提高神经网络的硬件效率。 模型压缩技术的核心是确定每个层的压缩策略,因为它们具有不同的冗余,这通常需要手工试验和领域专业知识来探索模型大小、速度和准确性之间的大设计空间。这个设计空间非常大,人工探索法通常是次优的,而且手动进行模型压缩非常耗时。 为此,韩松团队提出了 AutoML 模型压缩(AutoML for Model Compression,简称 AMC),利用强化学习来提供模型压缩策略。 论文地址: https:///pdf/1802.03494.pdf 负责这项研究的MIT助理教授韩松博士表示:
Google Cloud 研发总监李佳也表示:“AMC是我们在模型压缩方面的一点尝试,希望有了这类的技术,让更多的mobile和计算资源有限的应用变得可能。” “Cloud AutoML 产品设计让机器学习的过程变得更简单,让即便没有机器学习经验的人也可以享受机器学习带来的益处。尽管AutoML有很大的进步,这仍是一项相对初期的技术,还有很多方面需要提高和创新。”李佳说。 研究人员的目标是自动查找任意网络的压缩策略,以实现比人为设计的基于规则的模型压缩方法更好的性能。 这项工作的创新性体现在: 1、AMC提出的learning-based model compression优于传统的rule-based model compression 2、资源有限的搜索 3、用于细粒度操作的连续行动空间 4、使用很少的 GPU 进行快速搜索(ImageNet 上 1 个 GPU,花费 4 小时) 目标:自动化压缩流程,完全无需人工。利用 AI 进行模型压缩,自动化,速度更快,而且性能更高。 这种基于学习的压缩策略优于传统的基于规则的压缩策略,具有更高的压缩比,在更好地保持准确性的同时节省了人力。 在 4×FLOP 降低的情况下,我们在 ImageNet 上对 VGG-16 模型进行压缩,实现了比手工模型压缩策略高 2.7%的精度。 我们将这种自动化压缩 pipeline 应用于 MobileNet,在 Android 手机上测到 1.81 倍的推断延迟加速,在 Titan XP GPU 上实现了 1.43 倍的加速,ImageNet Top-1 精度仅下降了 0.1%。 图 1:AutoML 模型压缩(AMC)引擎的概览。左边:AMC 取代人工,将模型压缩过程完全自动化,同时比人类表现更好。右边:将 AMC 视为一个强化学习为题。 以前的研究提出了许多基于规则的模型压缩启发式方法。但是,由于深层神经网络中的层不是独立的,这些基于规则的剪枝策略并非是最优的,而且不能从一个模型转移到另一个模型。随着神经网络结构的快速发展,我们需要一种自动化的方法来压缩它们,以提高工程师的效率。 AutoML for Model Compression(AMC)利用强化学习来自动对设计空间进行采样,提高模型压缩质量。图 1 展示了 AMC 引擎的概览。在压缩网络是,ACM 引擎通过基于学习的策略来自动执行这个过程,而不是依赖于基于规则的策略和工程师。 我们观察到压缩模型的精度对每层的稀疏性非常敏感,需要细粒度的动作空间。因此,我们不是在一个离散的空间上搜索,而是通过 DDPG agent 提出连续压缩比控制策略,通过反复试验来学习:在精度损失时惩罚,在模型缩小和加速时鼓励。actor-critic 的结构也有助于减少差异,促进更稳定的训练。 针对不同的场景,我们提出了两种压缩策略搜索协议:
DDPG Agent
压缩方法研究
搜索协议
为了保证压缩的准确性,我们定义了一个精度和硬件资源的奖励函数。有了这个奖励函数,就能在不损害模型精度的情况下探索压缩的极限。
为了证明其广泛性和普遍适用性,我们在多个神经网络上评估 AMC 引擎,包括 VGG,ResNet 和 MobileNet,我们还测试了压缩模型从分类到目标检测的泛化能力。 强化学习 agent 对 ResNet-50 的剪枝策略 ACM 将模型压缩到更低密度而不损失精度(人类专家:ResNet50 压缩 3.4 倍;AMC:ResNet50 压缩 5 倍) 大量实验表明,AMC 提供的性能优于手工调优的启发式策略。对于 ResNet-50,我们将专家调优的压缩比从 3.4 倍提高到 5 倍,而没有降低精度。 AMC 对 MobileNet 的加速 此外,我们将 MobileNet 的 FLOP 降低了 2 倍,达到了 70.2%的 Top-1 最高精度,这比 0.75 MobileNet 的 Pareto 曲线要好,并且在 Titan XP 实现了 1.53 倍的加速,在一部 Android 手机实现 1.95 的加速。 AMC 和人类专家对 MobileNet 进行压缩的精度比较和推理时间比较 传统的模型压缩技术使用手工的特征,需要领域专家来探索一个大的设计空间,并在模型的大小、速度和精度之间进行权衡,但结果通常不是最优的,而且很耗费人力。 本文提出AutoML模型压缩(AMC),利用增强学习自动搜索设计空间,大大提高了模型压缩质量。我们还设计了两种新的奖励方案来执行资源受限压缩和精度保证压缩。 在Cifar和ImageNet上采用AMC方法对MobileNet、MobileNet- v2、ResNet和VGG等模型进行压缩,取得了令人信服的结果。压缩模型可以很好滴从分类任务推广到检测任务。在谷歌Pixel 1手机上,我们将MobileNet的推理速度从8.1 fps提升到16.0 fps。AMC促进了移动设备上的高效深度神经网络设计。 论文地址: https:///pdf/1802.03494.pdf 模型压缩: https:///pdf/1510.00149.pdf 新智元AI WORLD 2018世界人工智能峰会 倒计时 7 天 门票已开售! 新智元将于9月20日在北京国家会议中心举办AI WORLD 2018世界人工智能峰会,邀请机器学习教父、CMU教授 Tom Mitchell,迈克思·泰格马克,周志华,陶大程,陈怡然等AI领袖一起关注机器智能与人类命运。 大会官网: http://www./
|
|
来自: DISTANCE_A > 《待学习》