下列关于激活函数的说法中,错误的是______。
A: 如果激活函数的输出不是以0为均值的,可能会影响收敛速度
B: sigmoid函数存在梯度消失问题
C: 使用logistic函数作为激活函数时,神经网络的输出可以看作概率
D: 使用Tanh函数来代替logistic函数,可以避免梯度消失问题
A: 如果激活函数的输出不是以0为均值的,可能会影响收敛速度
B: sigmoid函数存在梯度消失问题
C: 使用logistic函数作为激活函数时,神经网络的输出可以看作概率
D: 使用Tanh函数来代替logistic函数,可以避免梯度消失问题
举一反三
- 下列关于激活函数的说法中,错误的是__。A.如果激活函数的输出不是以0为均值的,可能会影响收敛速度B.使用logistic函数作为激活函数时,神经网络的输出可以看作概率C.使用Tanh函数来代替logistic函数,可以避免梯度消失问题D.sigmoid函数存在梯度消失问题() A: 1 B: 2 C: 3 D: 4
- 下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数
- 有关循环神经网络激活函数的说法,以下哪个是错误的? A: 取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。 B: Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢 C: Sigmoid函数相对于Tanh函数来说更容易导致梯度消失 D: ReLU可以减少循环神经网络的梯度消失问题
- 关于激活函数以下说法正确的是?() A: sigmoid函数在深度神经网络中梯度反向传递时容易导致梯度消失 B: tanh函数对于规模比较大的深度网络计算速度比较慢 C: ReLU函数计算速度和收敛速度都比tanh/sigmoid快 D: ReLU函数的正区间存在梯度消失的问题
- tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快