你正在构建一个识别足球(y = 1)与篮球(y = 0)的二元分类器。你会使用哪一种激活函数用于输出层?(
)
A: Leaky ReLU
B: sigmoid
C: tanh
D: ReLU
)
A: Leaky ReLU
B: sigmoid
C: tanh
D: ReLU
举一反三
- 训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 下列哪个函数不是常用的神经网络激活函数______。 A: y = 3x B: y = ReLU(x) C: y = Sigmoid (x) D: y = tanh(x)
- 假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出 -0.01。X 可能是以下哪一个激活函数? ( ) A: tanh B: Sigmoid C: 选项中都有可能 D: ReLU
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数