算法概述:深度学习网络广泛应用在图像分类,检测中,但是网络结构复杂,参数过多,计算时间过长使其不容易在移动端应用。因此像模型压缩、模型加速应该会是未来深度学习比较活跃的一个领域。本文提出一种将传统的卷积结构改造成两层卷积结构的网络:MobileNets,采用类似ResNext里面的group操作来实现。这种新的结构可以在基本不影响准确率的前提下大大减少计算时间(约为原来的1/9)和参数数量(约为原来的1/7)。 算法详解:MobileNet模型的核心就是将原本标准的卷积操作因式分解成一个depthwise convolution和一个1*1的卷积(文中叫pointwise convolution)操作。简单讲就是将原来一个卷积层分成两个卷积层,其中前面一个卷积层的每个filter都只跟input的每个channel进行卷积,然后后面一个卷积层则负责combining,即将上一层卷积的结果进行合并。 本文的算法是用上图中的(b)+(c)代替(a),接下来详细讲解下什么怎么卷积的。依然假设卷积核为DK*DK*N,N表示卷积核个数,输入feature map的个数是M,输出feature map为DF*DF*N。那么(b)表示用M个卷积核去卷积对应的输入的M个feature map,然后得到M个结果,而且这M个结果相互之间不累加(传统的卷积是用N个卷积核依次卷积输入的所有(也就是M个)feature map,然后累加这M个结果,最终得到N个累加后的结果),注意这里是用M个卷积核而不是N个卷积核,所以(b)中没有N,只有M。因此计算量是DF*DF*DK*DK*M。(b)生成的结果应该是DF*DF*M,图中的(b)表示的是卷积核的维度。 (c)表示用1*1*M*N的卷积核卷积(b)的结果,即输入是DF*DF*M,最终得到DF*DF*N的feature map。这个就可以当做是普通的一个卷积过程了,所以计算量是DF*DF*1*1*M*N(联系下前面讲的标准卷积是DF*DF*DK*DK*M*N,就可以看出这个(c)其实就是卷积核为1*1的标准卷积)。 所以最重要的来了,采用这种算法的计算量变成了DF*DF*DK*DK*M+DF*DF*M*N。具体和原来相比减少了多少计算量?可以看下面这个式子: 也就是说如果卷积核大小为3*3,那么差不多卷积操作的时间能降到原来的1/9左右! 所以看看Fig3表达的标准卷积(左边)和因式分解后的卷积(右边)的差别。注意到卷积操作后都会跟一个Batchnorm和ReLU操作。 然后看看这个网络结构:如果把depthwise和pointwise看做不同层的话,MobileNet一共包含28层。第一个卷积层不做分解,另外最后有个均值pooling层,全连接层和softmax层。这里dw就表示depthwise。 这个Table2介绍了网络中不同类型层的计算时间在总时间中的比例以及参数的数量在总的参数数量中的比例。 前面讲的都是在计算时间和参数的减少,现在看看计算准确率的对比:Table4,表示本文卷积和标准卷积的对比。可以看出Accuracy减少得不是很明显,但是却大大减少了计算时间和参数数量。 为了得到更小和更快的模型,作者介绍了两个概念:Width Multiplier 和 Resolution Multiplier。前者表示输入channel变成baseline的多少倍,如Table6;后者表示对输入图像做缩放,如Table7。 其他更多实验对比可以参看论文。 一个细节:实际中L2正则项的系数要比较小,因为本身参数已经减少许多了。 总结作者主要提出一种将标准卷积层拆分成两个卷积层的MolileNet网络,可以在基本保证准确率的前提下大大减少计算时间和参数数量。个人认为应该对于全卷积网络(ResNet等)的提升效果比较明显,可以在最近的object detection算法中借鉴。另外模型加速和压缩应该会是最近几年比较活跃和值得关注的领域。 |
|
来自: 雪柳花明 > 《机器学习,深度学习 面试技巧》