下列______可以缓解梯度的消失问题且计算速度快。
A: sigmod激活函数
B: logistic激活函数
C: ReLU激活函数
D: Tanh激活函数
A: sigmod激活函数
B: logistic激活函数
C: ReLU激活函数
D: Tanh激活函数
举一反三
- 下列关于激活函数的说法中,错误的是______。 A: 如果激活函数的输出不是以0为均值的,可能会影响收敛速度 B: sigmoid函数存在梯度消失问题 C: 使用logistic函数作为激活函数时,神经网络的输出可以看作概率 D: 使用Tanh函数来代替logistic函数,可以避免梯度消失问题
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- 关于激活函数以下说法正确的是?() A: sigmoid函数在深度神经网络中梯度反向传递时容易导致梯度消失 B: tanh函数对于规模比较大的深度网络计算速度比较慢 C: ReLU函数计算速度和收敛速度都比tanh/sigmoid快 D: ReLU函数的正区间存在梯度消失的问题
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 以下哪些激活函数容易产生梯度消失问题?() A: ReLU B: Softplus C: Tanh D: Sigmoid