下列哪项不属于梯度消失问题的解决手段()
A: 减少层数
B: 减小学习率
C: 增大学习率
D: 用Relu代替sigmoid
A: 减少层数
B: 减小学习率
C: 增大学习率
D: 用Relu代替sigmoid
举一反三
- 哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数
- 以下哪个激活函数可以很好地解决梯度消失问题?() A: Relu B: Tanh C: Softsign D: Sigmoid
- 针对深度学习的梯度消失问题,哪种因素可能是无效的? A: 增大学习率 B: 减少网络深度 C: 添加shortcut(skip) connection D: 减少输入层词嵌入向量维度
- 以下哪些激活函数容易产生梯度消失问题?() A: ReLU B: Softplus C: Tanh D: Sigmoid
- 关于神经网络的相关概念,哪个说法是正确的? A: 对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题 B: ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况 C: RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练 D: 随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快