下面关于Relu和Sigmoid激活函数说法错误的是
A: Relu激活函数相比于Sigmoid激活函数计算更简单
B: Relu激活函数是一种线性的激活函数
C: Sigmoid激活很容易出现梯度消失的情况
D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生
A: Relu激活函数相比于Sigmoid激活函数计算更简单
B: Relu激活函数是一种线性的激活函数
C: Sigmoid激活很容易出现梯度消失的情况
D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生
B
举一反三
内容
- 0
关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误
- 1
以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 2
哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数
- 3
下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数
- 4
下面关于激活函数的描述中,正确的说法是哪个? A: 激活函数需要具有线性可微的特点 B: Sigmoid函数的导数是非零的,很容易计算 C: Sigmoid函数的输出值域是对称的 D: ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效