在某神经网络的隐层输出中,包含1.5,那么该神经网络采用的激活函数可能是
A: sigmoid
B: tanh
C: relu
D: 以上都不对
A: sigmoid
B: tanh
C: relu
D: 以上都不对
举一反三
- 【单选题】假定在神经网络中的隐藏层中使用激活函数X,并且在该层神经元得到输出[-0.0001]。X可能是以下哪一个激活函数 A: ReLU B: tanh C: Sigmoid D: 以上都不是
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数B A: ReLU B: tanh C: Sigmoid D: 以上都不是
- 假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出 -0.01。X 可能是以下哪一个激活函数? ( ) A: tanh B: Sigmoid C: 选项中都有可能 D: ReLU
- 训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU