关于梯度下降的优化方法,以下哪个描述是错误的()
A: SGD通常与Momentum一起使用
B: AdaGrad使用二阶差分
C: Adam使用指数加权平均
D: AdamW使用L2正则化
A: SGD通常与Momentum一起使用
B: AdaGrad使用二阶差分
C: Adam使用指数加权平均
D: AdamW使用L2正则化
举一反三
- adam梯度下降的方法是momentum和adagrad两种方法的融合。
- 机器学习中常用的优化器包括() A: 随机梯度下降 B: momentum C: AdaGrad D: Adam
- 在深度学习模型训练的过程中,常见的优化器有哪些?() A: Adam B: Adagrad C: SGD D: Momentum
- 关于L1正则化与L2正则化以下表述正确的是()。 A: L2正则化比L1正则化产生更加稀疏的模型 B: L1正则项有利于增强模型的泛化能力 C: 加上L2正则项后,无法使用梯度下降算法迭代参数值 D: L1,L2正则项不能作用在损失函数之上
- 【单选题】下面关于Lasso回归的描述正确的是 A. Lasso 回归使用 L1 正则化 B. Lasso 回归使用 L2 正则化 C. Lasso 回归使用 L1+L2 正则化 D. Lasso 回归不使用正则化