• 2022-06-08 问题

    常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU

    常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU

  • 2022-06-08 问题

    tanh解决了sigmoid梯度消失的问题。

    tanh解决了sigmoid梯度消失的问题。

  • 2022-06-08 问题

    全连接层常用的激活函数是sigmoid和tanh

    全连接层常用的激活函数是sigmoid和tanh

  • 2022-07-28 问题

    AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。

    AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。

  • 2022-07-28 问题

    AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。 A: 正确 B: 错误

    AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。 A: 正确 B: 错误

  • 2022-06-08 问题

    tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快

    tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快

  • 2022-07-28 问题

    以下哪些激活函数容易产生梯度消失问题?() A: ReLU B: Softplus C: Tanh D: Sigmoid

    以下哪些激活函数容易产生梯度消失问题?() A: ReLU B: Softplus C: Tanh D: Sigmoid

  • 2022-07-28 问题

    有关循环神经网络激活函数的说法,以下哪个是错误的? A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。 B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢 C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失 D: ReLU可以减少循环神经网络的梯度消失问题

    有关循环神经网络激活函数的说法,以下哪个是错误的? A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。 B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢 C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失 D: ReLU可以减少循环神经网络的梯度消失问题

  • 2022-05-26 问题

    以下哪个激活函数可以很好地解决梯度消失问题?() A: Relu B: Tanh C: Softsign D: Sigmoid

    以下哪个激活函数可以很好地解决梯度消失问题?() A: Relu B: Tanh C: Softsign D: Sigmoid

  • 2022-06-12 问题

    以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数

    以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数

  • 1 2 3 4