机器学习中常用的优化器包括()
A: 随机梯度下降
B: momentum
C: AdaGrad
D: Adam
A: 随机梯度下降
B: momentum
C: AdaGrad
D: Adam
举一反三
- adam梯度下降的方法是momentum和adagrad两种方法的融合。
- 在深度学习模型训练的过程中,常见的优化器有哪些?() A: Adam B: Adagrad C: SGD D: Momentum
- 关于梯度下降的优化方法,以下哪个描述是错误的() A: SGD通常与Momentum一起使用 B: AdaGrad使用二阶差分 C: Adam使用指数加权平均 D: AdamW使用L2正则化
- 下面梯度下降说法错误的是() A: 随机梯度下降是梯度下降中最常用的一种。 B: 梯度下降包括随机梯度下降和批量梯度下降 C: 梯度下降算法速度快且可靠 D: 随机梯度下降是深度学习算法当中常用的优化算法之一
- 下列那些方法是深度学习常用的优化算法? A: SGD B: Adagrad C: Adam D: Adamax