• 2022-07-25
    以下选项中不可以做为神经网络中激活函数的是( )。
    A: ReLU
    B: Softmax
    C: Sigmoid
    D: 交叉熵函数
  • D

    内容

    • 0

      用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数

    • 1

      以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数

    • 2

      中国大学MOOC: 以下选项中不可以做为神经网络中激活函数的是( )。

    • 3

      关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。

    • 4

      训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU