• 2021-04-14
    adam梯度下降的方法是momentum和adagrad两种方法的融合。
  • 内容

    • 0

      下列哪些方法是梯度下降法的改进?() A: 批量梯度下降(Batchgradientdescent) B: 随机梯度下降(Stochasticgradientdescent) C: 小批量梯度下降(Mini-batchgradientdescent)

    • 1

      下列属于神经网络优化器的有? A: SGD B: AdaGrad C: RMSProp D: Adam

    • 2

      下面对梯度下降方法描述,不正确的是( )。 A: 梯度方向是函数值下降最快方向 B: 梯度反方向是函数值下降最快方向 C: 梯度下降算法是一种使得损失函数最小化的方法 D: 梯度下降算法用来优化深度学习模型的参数

    • 3

      下面对梯度下降方法描述不正确的是( ) A: 梯度下降算法是一种使得损失函数最小化的方法 B: 梯度反方向是函数值下降最快方向 C: 梯度方向是函数值下降最快方向 D: 梯度下降算法用来优化深度学习模型的参数

    • 4

      插入帧同步码组也有两种方法,一种方法是(),另一种方法是()。