下列选项中关于随机梯度下降法的说法,正确的是?
A: 随机梯度下降法最终收敛的点不一定是全局最优
B: 随机梯度下降法最终收敛的点一定是全局最优
C: 无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D: 无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解
A: 随机梯度下降法最终收敛的点不一定是全局最优
B: 随机梯度下降法最终收敛的点一定是全局最优
C: 无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D: 无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解
举一反三
- 梯度下降法找到的一定是全局最优解。
- 下列哪些方法是梯度下降法的改进?() A: 批量梯度下降(Batchgradientdescent) B: 随机梯度下降(Stochasticgradientdescent) C: 小批量梯度下降(Mini-batchgradientdescent)
- 为了提高神经网络的学习速度,以下说法正确的是 A: 从随机梯度下降改为动量梯度下降法,通常是一个不错的尝试 B: 从随机梯度下降改为RMSprop梯度下降法,通常是一个不错的尝试 C: 从随机梯度下降改为Adam梯度下降法,通常是一个不错的尝试 D: 采用学习率衰减的方式,通常是一个不错的尝试
- 全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属于梯度下降算法,以下关于其有优缺点说法错误的是() A: 全局梯度算法可以找到损失函数的最小值 B: 批量梯度算法可以解决局部最小值问题 C: 随机梯度算法可以找到损失函数的最小值 D: 全局梯度算法收敛过程比较耗时
- 通常有哪几种训练神经网络的优化方法? A: 梯度下降法 B: 随机梯度下降法 C: 小批量随机梯度下降法 D: 集成法