【单选题】假定在神经网络中的隐藏层中使用激活函数X,并且在该层神经元得到输出[-0.0001]。X可能是以下哪一个激活函数
A: ReLU
B: tanh
C: Sigmoid
D: 以上都不是
A: ReLU
B: tanh
C: Sigmoid
D: 以上都不是
B
举一反三
- 假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数B A: ReLU B: tanh C: Sigmoid D: 以上都不是
- 假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出 -0.01。X 可能是以下哪一个激活函数? ( ) A: tanh B: Sigmoid C: 选项中都有可能 D: ReLU
- 在某神经网络的隐层输出中,包含1.5,那么该神经网络采用的激活函数可能是 A: sigmoid B: tanh C: relu D: 以上都不对
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 下列哪个函数不是常用的神经网络激活函数______。 A: y = 3x B: y = ReLU(x) C: y = Sigmoid (x) D: y = tanh(x)
内容
- 0
Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 1
AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。
- 2
训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU
- 3
神经元常用的激活函数有? A: Sigmoid函数 B: Relu函数 C: f(x)函数 D: cos()函数
- 4
NNLM模型中,网络输出层采用的激活函数是什么?() A: Sigmoid B: Relu C: Softmax D: Tanhax