• 2022-05-26
    如果你训练的模型代价函数J随着迭代次数的增加,绘制出来的图如下,那么[img=719x448]18033254a437b9a.jpg[/img]
    A: 如果你正在使用mini-batch梯度下降,那可能有问题;而如果你在使用批量梯度下降,那是合理的
    B: 如果你正在使用mini-batch梯度下降,那看上去是合理的;而如果你在使用批量梯度下降,那可能有问题
    C: 无论你在使用mini-batch还是批量梯度下降,看上去都是合理的
    D: 无论你在使用mini-batch还是批量梯度下降,都可能有问题
  • B

    举一反三

    内容

    • 0

      全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属于梯度下降算法,以下关于其有优缺点说法错误的是() A: 全局梯度算法可以找到损失函数的最小值 B: 批量梯度算法可以解决局部最小值问题 C: 随机梯度算法可以找到损失函数的最小值 D: 全局梯度算法收敛过程比较耗时

    • 1

      下列哪些方法是梯度下降法的改进?() A: 批量梯度下降(Batchgradientdescent) B: 随机梯度下降(Stochasticgradientdescent) C: 小批量梯度下降(Mini-batchgradientdescent)

    • 2

      梯度下降策略中,应该尽可能选择更小的batch

    • 3

      下面梯度下降说法错误的是() A: 随机梯度下降是梯度下降中最常用的一种。 B: 梯度下降包括随机梯度下降和批量梯度下降 C: 梯度下降算法速度快且可靠 D: 随机梯度下降是深度学习算法当中常用的优化算法之一

    • 4

      以下关于深度神经网络的说法中错误的是 A: 使用梯度裁剪(gradient clipping)有助于减缓梯度爆炸问题 B: 若batch size过小,batch normalization的效果会出现退化 C: 在使用SGD训练时,若训练loss的变化逐渐平缓不再明显下降时,通常可以通过减小learning rate的方式使其再进一步下降 D: 增大L2正则项的系数有助于减缓梯度消失问题