• 2021-04-14 问题

    adagrad梯度下降的方法是在学习率上动手脚。

    adagrad梯度下降的方法是在学习率上动手脚。

  • 2021-04-14 问题

    adam梯度下降的方法是momentum和adagrad两种方法的融合。

    adam梯度下降的方法是momentum和adagrad两种方法的融合。

  • 2022-06-01 问题

    下列属于神经网络优化器的有? A: SGD B: AdaGrad C: RMSProp D: Adam

    下列属于神经网络优化器的有? A: SGD B: AdaGrad C: RMSProp D: Adam

  • 2022-05-29 问题

    机器学习中常用的优化器包括() A: 随机梯度下降 B: momentum C: AdaGrad D: Adam

    机器学习中常用的优化器包括() A: 随机梯度下降 B: momentum C: AdaGrad D: Adam

  • 2022-06-05 问题

    下列那些方法是深度学习常用的优化算法? A: SGD B: Adagrad C: Adam D: Adamax

    下列那些方法是深度学习常用的优化算法? A: SGD B: Adagrad C: Adam D: Adamax

  • 2022-06-09 问题

    在深度学习模型训练的过程中,常见的优化器有哪些?() A: Adam B: Adagrad C: SGD D: Momentum

    在深度学习模型训练的过程中,常见的优化器有哪些?() A: Adam B: Adagrad C: SGD D: Momentum

  • 2022-06-07 问题

    下列______算法中,学习率随着迭代次数的增加而单调减小。 A: AdaGrad B: RMSprop C: AdaDelta D: Adam

    下列______算法中,学习率随着迭代次数的增加而单调减小。 A: AdaGrad B: RMSprop C: AdaDelta D: Adam

  • 2022-07-27 问题

    在深度学习模型训练的过程中,常见的优化器有哪些?( ) A: Momenturm B: Adagrad C: SGD D: Ada

    在深度学习模型训练的过程中,常见的优化器有哪些?( ) A: Momenturm B: Adagrad C: SGD D: Ada

  • 2022-05-28 问题

    以下关于优化器的说法正确的是()。 A: Adagrad优化器学习率不是自动更新的 B: SGD,MBGD和动量优化器的共同特点是每次迭代都用相同学习率进行更新 C: Adam优化器与Adagrad优化器之间没有联系 D: 动量优化器的学习率不需要手动设置

    以下关于优化器的说法正确的是()。 A: Adagrad优化器学习率不是自动更新的 B: SGD,MBGD和动量优化器的共同特点是每次迭代都用相同学习率进行更新 C: Adam优化器与Adagrad优化器之间没有联系 D: 动量优化器的学习率不需要手动设置

  • 2022-06-26 问题

    关于梯度下降的优化方法,以下哪个描述是错误的() A: SGD通常与Momentum一起使用 B: AdaGrad使用二阶差分 C: Adam使用指数加权平均 D: AdamW使用L2正则化

    关于梯度下降的优化方法,以下哪个描述是错误的() A: SGD通常与Momentum一起使用 B: AdaGrad使用二阶差分 C: Adam使用指数加权平均 D: AdamW使用L2正则化

  • 1