以下选项中不可以做为神经网络中激活函数的是( )。
A: ReLU
B: Softmax
C: Sigmoid
D: 交叉熵函数
A: ReLU
B: Softmax
C: Sigmoid
D: 交叉熵函数
D
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- NNLM模型中,网络输出层采用的激活函数是什么?() A: Sigmoid B: Relu C: Softmax D: Tanhax
- 长短期记忆循环神经网络LSTM中的门控信号采用了______激活函数。 A: Sigmoid B: Tanh C: ReLU D: Softmax
- 长短期记忆循环神经网络LSTM中的记忆单元采用了_____激活函数。 A: Sigmoid B: Tanh C: ReLU D: Softmax
- 以下选项中不可以做为神经网络中激活函数的是()。
内容
- 0
用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数
- 1
以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- 2
中国大学MOOC: 以下选项中不可以做为神经网络中激活函数的是( )。
- 3
关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
- 4
训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU