分享

在神经网络中,激活函数sigmoid和tanh有什么不同呢?

 昵称11935121 2018-05-16

这个问题比较适合用图片回答。

这是sigmoid

这是tanh

这两个图像(图中的黑线)是不是长得很像?

当然了,毕竟sigmoid线性变换一下就得到了tanh:

如果要说不同的话,tanh比sigmoid更陡峭(上图中的红线为两者的导数)。所以,理论上,用作激活函数时,如果你希望梯度更“激烈”一点,那就选tanh,反之,如果希望梯度更“平缓”一点,那就选sigmoid。不过,实践中,其实这两个都不怎么用,现在是ReLU的时代了。

另外,sigmoid的值域是0到1,而tanh的值域是-1到1,所以,在这个ReLU系占主流的年代,sigmoid仍然“坚守”着分类层。

(函数及其导数图像来源:towardsdatascience.com/hyper-parameters-in-action-a524bf5bf1c)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多