常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( )
A: . Sigmoid
B: tanh
C: ReLU
A: . Sigmoid
B: tanh
C: ReLU
举一反三
- 全连接层常用的激活函数是sigmoid和tanh
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU
- relu 相比于 sigmoid、tanh 的优势在哪里 A: 属于非饱和激活函数 B: 属于饱和激活函数 C: 简单速度快 D: 增加网络非线性
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数