• 2022-06-26 问题

    关于梯度下降的优化方法,以下哪个描述是错误的() A: SGD通常与Momentum一起使用 B: AdaGrad使用二阶差分 C: Adam使用指数加权平均 D: AdamW使用L2正则化

    关于梯度下降的优化方法,以下哪个描述是错误的() A: SGD通常与Momentum一起使用 B: AdaGrad使用二阶差分 C: Adam使用指数加权平均 D: AdamW使用L2正则化

  • 1