以下哪个激活函数能使得网络变得更加稀疏( )
A: Tanh()函数
B: Sigmoid()函数
C: 其余都可以
D: ReLu()函数
A: Tanh()函数
B: Sigmoid()函数
C: 其余都可以
D: ReLu()函数
举一反三
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 以下哪个激活函数可以很好地解决梯度消失问题?() A: Relu B: Tanh C: Softsign D: Sigmoid
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 有关循环神经网络激活函数的说法,以下哪个是错误的? A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。 B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢 C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失 D: ReLU可以减少循环神经网络的梯度消失问题