sigmoid函数属于阶跃函数,是神经网络中常见的激活函数。()
举一反三
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数
- 下列函数中,属于感知机所使用的激活函数是()。 A: 修正线性单元 B: 分段函数 C: 阶跃函数 D: Sigmoid函数
- 下列用于神经网络的常见的激活函数有 A: Sigmoid型函数 B: 双曲正切函数 C: 抛物线函数 D: 高斯型函数
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 有关循环神经网络激活函数的说法,以下哪个是错误的? A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。 B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢 C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失 D: ReLU可以减少循环神经网络的梯度消失问题