• 2022-06-14
    【单选题】假定在神经网络中的隐藏层中使用激活函数X,并且在该层神经元得到输出[-0.0001]。X可能是以下哪一个激活函数
    A: ReLU
    B: tanh
    C: Sigmoid
    D: 以上都不是
  • B

    内容

    • 0

      Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数

    • 1

      AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。

    • 2

      训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

    • 3

      神经元常用的激活函数有? A: Sigmoid函数 B: Relu函数 C: f(x)函数 D: cos()函数

    • 4

      NNLM模型中,网络输出层采用的激活函数是什么?() A: Sigmoid B: Relu C: Softmax D: Tanhax