用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。
A: Sigmoid函数
B: 阶跃函数
C: ReLU函数
D: Softmax函数
A: Sigmoid函数
B: 阶跃函数
C: ReLU函数
D: Softmax函数
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- NNLM模型中,网络输出层采用的激活函数是什么?() A: Sigmoid B: Relu C: Softmax D: Tanhax
- 以下选项中不可以做为神经网络中激活函数的是( )。 A: ReLU B: Softmax C: Sigmoid D: 交叉熵函数
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- sigmoid函数属于阶跃函数,是神经网络中常见的激活函数。()