文中原作者修改了一篇BMVC2018的论文《Light-Weight RefineNet for Real-Time Semantic Segmentation》中提出的算法,使用知识蒸馏的方法,使轻量级模型17毫秒完成语义分割与深度估计任务。 该文的目的很简单,在CVPR2017的RefineNet语义分割算法基础上减少模型参数和计算量。 RefineNet的网络架构: RefineNet使用经典的编码器-解码器架构,CLF为3*3卷积,卷积核个数为语义类的个数,编码器的骨干网可以是任意图像分类特征提取网络,重点是解码器部分含有RCU、CRP、FUSION三种重要结构。 RCU即residual convolutional unit(残差卷积单元),为经典残差网络ResNet中的residual block去掉batch normalisation部分,由ReLU和卷积层构成。 Light-Weight RefineNet改进方法 改进图示: 1)替换3*3卷积为1*1卷积 2)省略RCU模块 表格中RefineNet-101为原始RefineNet网络,RefineNet-101-LW-WITH-RCU为使用了1)中的改进替换卷积,RefineNet-101-LW为使用了1)与2)中的改进替换卷积并省略RCU。 3)使用轻量级骨干网 实验结果 可以看到虽性能略有下降,但参数量和计算时间大幅降低。 同时作者也在PASCAL VOC数据库上进行了实验,并加入NASNet-Mobile 、MobileNet-v2骨干网,发现对比于使用相同骨干网路的目前几乎是最先进的语义分割架构DeepLab-v3,RefineNet-LW的性能表现更具优势。 语义分割结果对比图示: 总结 代码地址: |
|