• 2022-07-28
    有关循环神经网络激活函数的说法,以下哪个是错误的?
    A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。
    B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
    C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
    D: ReLU可以减少循环神经网络的梯度消失问题