一、更好的激活函数Mish YOLOV4中激活函数用的不是Relu函数,而是Mish函数(越来越多算法用) Relu函数再x < 0的时候,直接置零,这种做法太过激进。如下图是Mish函数的表达式:
Mish的曲线图:
Mish相对于Relu参数更多,函数更加复杂,拟合能力更强,计算量自然也越大,给V4带来了一点提升。 二、整体网络架构 下图是整体网络架构,数据增强没有加进去。
DarkNetConv2d_BN_Mish = 卷积 + BatchNormalization + Mish激活 ResNetBlock_Body:和V3一样 SPP层:能让不同大小特征图size一样,方便拼接。 PANet:使得特征能够从上到下,从下到上。 Yolo Head:和V3一样。
最后小结下V4创新: 1、单GPU能够训练得非常好 2、数据增强+网络创新 3、集主流tricks与一身 |
|