下列______算法中,学习率随着迭代次数的增加而单调减小。
A: AdaGrad
B: RMSprop
C: AdaDelta
D: Adam
A: AdaGrad
B: RMSprop
C: AdaDelta
D: Adam
举一反三
- 下列属于神经网络优化器的有? A: SGD B: AdaGrad C: RMSProp D: Adam
- 下列那些方法是深度学习常用的优化算法? A: SGD B: Adagrad C: Adam D: Adamax
- 以下关于优化器的说法正确的是()。 A: Adagrad优化器学习率不是自动更新的 B: SGD,MBGD和动量优化器的共同特点是每次迭代都用相同学习率进行更新 C: Adam优化器与Adagrad优化器之间没有联系 D: 动量优化器的学习率不需要手动设置
- 机器学习中常用的优化器包括() A: 随机梯度下降 B: momentum C: AdaGrad D: Adam
- 随着出行距离的增加,自行车这种交通方式的分担(或划分)率:( ) A: 单调升高 B: 单调降低 C: 先增大后减小 D: 先减小后增大