BP网络目标函数存在多个极值点,按梯度下降法进行学习,很容易陷入局部极小值。
对
举一反三
- BP神经网络中采用的负梯度下降算法,当误差目标函数中存在多个极值点时,仍然能够寻找到全局最优解。
- 下列关于梯度下降法的描述错误的是? A: 梯度下降是利用一阶的梯度信息找到代价函数局部最优解的一种方法 B: 通常会先初始化一组参数值,然后在这个值之上,用梯度下降法去求出下一组的值。有于梯度是下降的,所以损失函数的值在下降。当迭代到一定程度,此时的参数取值即为要求的值。 C: 学习速率的选取很关键,如果学习速率过大,容易达不到极值甚至会发散,学习速率太小容易导致收敛时间过长 D: 学习速率不是超参数。
- BP算法陷入局部极小值的问题可通过更换激活函数解决。
- BP网络用梯度下降法对权值参数进行更新,假设参数w目前值为0.3,当前目标函数的梯度值是-0.2,学习率是0.4,那么参数w更新后的值应该是( ) A: 0.38 B: 0.22 C: 0.3 D: 0
- 下列选项中属于BP网络的不足的是? A: 全连接网络计算大 B: 隐层神经元数量难以确定 C: 容易陷入局部极小值 D: 无法做到深度很深,会产生梯度消失
内容
- 0
下列选项中属于BP网络的不足的是? A: 全连接网络计算大 B: 隐层神经元数量难以确定 C: 容易陷入局部极小值 D: 无法做到深度很深,会产生梯度消失
- 1
关于BP神经网络的描述正确的是() A: 是2006年首次提出的 B: 学习规则是梯度下降法 C: 通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小 D: 不会陷入局部最优点
- 2
关于模型的迭代优化算法下面说法错误的是: A: 当很难直接求解目标函数的极值点时,可以通过迭代逼近的方式确定参数最优解 B: 梯度下降法的参数更新搜索方向是负梯度方向 C: 梯度下降法搜索的是目标函数极小值点,因此求目标函数的极大值点不能使用梯度下降法 D: 牛顿迭代法的收敛速度很快但搜索方向构造困难,拟牛顿法是牛顿法的改进
- 3
有关BP网络的说法,哪个是错误的? A: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能 B: 与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数 C: 交叉熵也可以作为回归预测问题的损失函数 D: 神经元的激活函数选择影响神经网络的训练过程和最终性能
- 4
有关BP网络的说法,哪个是正确的? A: 交叉熵也可以作为分类预测问题的损失函数 B: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能 C: 与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数 D: 神经元的激活函数选择不影响神经网络的训练过程和最终性能