假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出 -0.01。X 可能是以下哪一个激活函数? ( )
A: tanh
B: Sigmoid
C: 选项中都有可能
D: ReLU
A: tanh
B: Sigmoid
C: 选项中都有可能
D: ReLU
举一反三
- 假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数B A: ReLU B: tanh C: Sigmoid D: 以上都不是
- 【单选题】假定在神经网络中的隐藏层中使用激活函数X,并且在该层神经元得到输出[-0.0001]。X可能是以下哪一个激活函数 A: ReLU B: tanh C: Sigmoid D: 以上都不是
- 在某神经网络的隐层输出中,包含1.5,那么该神经网络采用的激活函数可能是 A: sigmoid B: tanh C: relu D: 以上都不对
- 下列哪个函数不是常用的神经网络激活函数______。 A: y = 3x B: y = ReLU(x) C: y = Sigmoid (x) D: y = tanh(x)
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU