• 2022-07-24
    训练大规模数据集时,首选的梯度下降算法是__。A.以上没有区别,都可以B.小批量梯度下降法C.随机梯度下降法D.批量梯度下降法()
    A: 1
    B: 2
    C: 3
    D: 4
  • B

    举一反三

    内容

    • 0

      当输入卷积神经网络数据过大以至于无法在计算机RAM内存中同时处理时,哪种梯度下降方法更加有效? A: 随机梯度下降法 B: 分块梯度下降法 C: 整批梯度下降法 D: 都不是

    • 1

      全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属于梯度下降算法, 以下关于其有优缺点说法错误的是:

    • 2

      全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属于梯度下降算法,以下关于其有优缺点说法错误的是() A: 全局梯度算法可以找到损失函数的最小值 B: 批量梯度算法可以解决局部最小值问题 C: 随机梯度算法可以找到损失函数的最小值 D: 全局梯度算法收敛过程比较耗时

    • 3

      为了提高神经网络的学习速度,以下说法正确的是 A: 从随机梯度下降改为动量梯度下降法,通常是一个不错的尝试 B: 从随机梯度下降改为RMSprop梯度下降法,通常是一个不错的尝试 C: 从随机梯度下降改为Adam梯度下降法,通常是一个不错的尝试 D: 采用学习率衰减的方式,通常是一个不错的尝试

    • 4

      在卷积神经网络中,我们通常使用的带动量的梯度下降算法主要属于下列的哪一种? A: 批量梯度下降,每次迭代所有样本 B: 真随机梯度下降,每次仅迭代一个样本 C: 小批量梯度下降,每次迭代batch-size个样本 D: 以上均属于常用梯度下降算法