Alexnet卷积神经网络的卷积层中采用的激活函数为( )
A: softmax函数
B: Relu函数
C: sigmoid函数
D: tanh函数
A: softmax函数
B: Relu函数
C: sigmoid函数
D: tanh函数
举一反三
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数
- AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。
- 长短期记忆循环神经网络LSTM中的门控信号采用了______激活函数。 A: Sigmoid B: Tanh C: ReLU D: Softmax