NNLM模型中,网络输出层采用的激活函数是什么?()
A: Sigmoid
B: Relu
C: Softmax
D: Tanhax
A: Sigmoid
B: Relu
C: Softmax
D: Tanhax
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数
- 以下选项中不可以做为神经网络中激活函数的是( )。 A: ReLU B: Softmax C: Sigmoid D: 交叉熵函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 相比sigmoid激活函数,ReLU激活函数有什么优势?