反向传播算法是一种以()为核心的算法。
A: 梯度下降
B: 梯度上升
C: 凸优化
D: 迭代优化
A: 梯度下降
B: 梯度上升
C: 凸优化
D: 迭代优化
举一反三
- 下面梯度下降说法错误的是() A: 随机梯度下降是梯度下降中最常用的一种。 B: 梯度下降包括随机梯度下降和批量梯度下降 C: 梯度下降算法速度快且可靠 D: 随机梯度下降是深度学习算法当中常用的优化算法之一
- 不属于深度学习中的优化方法是() A: 随机梯度下降 B: 反向传播算法 C: 主成分分析 D: 动量
- BP算法(梯度下降)有哪些缺点?对BP算法提出了哪些优化算法?
- 神经网络使用哪些算法( )。 A: K-Means算法 B: 误差的反向传播算法 C: 梯度下降算法 D: 最大期望算法
- 随机梯度下降算法是利用梯度的微小变化来优化损失函数的一种方法,下列哪种随机梯度下降算法最适合于面[br][/br]向大数据的神经网络。 A: 真随机梯度下降,每次只迭代一个样本 B: 全样本梯度下降,每次迭代都在所有数据上运行 C: 随机随机梯度下降,每次迭代时随机选取一定数量的样本进行处理 D: 小批量随机梯度下降,每次迭代都在固定量(通常都不大)的样本上进行