如果训练(RNN)神经网络使用的学习率太大可能将出现什么结果?
A: 网络将收敛
B: 网络将无法收敛
C: 网络很快达到训练目标
D: 训练过程中代价函数的震荡
A: 网络将收敛
B: 网络将无法收敛
C: 网络很快达到训练目标
D: 训练过程中代价函数的震荡
举一反三
- 在神经网络训练中,有关学习率调整说法错误的是?( ) A: 学习率设置不当会引起神经网络过拟合。 B: 学习率可以根据损失函数(代价函数)减少的快慢动态调整。 C: 学习率太小会使神经网络的训练迅速达到极小值。 D: 固定学习率设置太大可能会使神经网络训练震荡不收敛。
- 梯度消失和梯度爆炸不会导致下面哪种情况? A: 梯度消失会导致网络训练变慢 B: 梯度消失使网络性能不佳,分类准确度低 C: 梯度爆炸使网络训练时代价函数震荡,不利于收敛 D: 梯度爆炸会加快网络训练,更易达到最优解
- 有关神经网络训练时使用的学习率参数说法错误的是? A: 学习率可以与其他网络参数一起训练,对降低代价函数是有利的。 B: 学习率过大更容易导致训练陷入局部极小值。 C: 学习率可以随着训练误差动态调整效果更好。 D: 网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。
- 有关神经网络训练时使用的学习率参数说法正确的是( )。 A: 学习率可以随着训练误差动态调整效果更好。 B: 学习率过大更容易导致训练陷入局部极小值。 C: 学习率可以与其他网络参数一起训练,对降低代价函数是有利的。 D: 网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。
- 下列关于学习率的说法,错误的是______。 A: 学习率是一个确定的常数 B: 减小学习率会降低网络达到最优点速度,增加训练时间 C: 增大学习率可能导致网络引起震荡,无法收敛 D: 学习率用来定义每次参数更新的幅度