作者:Kaiming He,Xiaoyu Zhang,Shaoqing Ren ,and Jian Sun Abstract这篇文章是作者就上一篇论文:Deep Residual Learning for Image Recognition 的深入探讨和研究。此篇文章从理论和实验上论述了ResNet的有效性,分析了 ResNet 中加入的 Identity mapping 为什么比较好,为什么它能让梯度在网络中顺畅的传递而不会爆炸或消失。同时就ResNet1202出现的降质问题,提出了一个新的残差单元,进一步提高了残差网络的性能。(cifar10: 4.62%) IntroductionResNet结构:H(x)=x+F(x) 作者提出了一个更通用的表达式: 本文提出了一种恒等映射:f(y)=y,及去掉原来的relu函数,是信息直接流向下一个残差block。 Analysis如果addition操作之后是恒等映射,则Residual network的数学表达变成: 后向传播公式 恒等跨越连接的重要性作者把原来的identity mapping改成线性映射,并分析其影响(h(x)=kx ) Experiment on Skip connection在shortcut上添加各种结构,进行对比试验,试验结果证明了恒等映射最好。 On the Usage of Activation Functions之前的网络结构都是假设f是恒等映射,这一部分研究relu激活函数的影响,并提出了一个“pre-activation”结构,能进一步提高了网络的性能。 Analysis这种结构有双重效果: Result |
|
来自: Rainbow_Heaven > 《目标检测》