• 2021-04-14
    BP网络目标函数存在多个极值点,按梯度下降法进行学习,很容易陷入局部极小值。
  • 内容

    • 0

      ‏下列选项中属于BP网络的不足的是?‌ A: 全连接网络计算大 B: 隐层神经元数量难以确定 C: 容易陷入局部极小值 D: 无法做到深度很深,会产生梯度消失

    • 1

      关于BP神经网络的描述正确的是() A: 是2006年首次提出的 B: 学习规则是梯度下降法 C: 通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小 D: 不会陷入局部最优点

    • 2

      关于模型的迭代优化算法下面说法错误的是: A: 当很难直接求解目标函数的极值点时,可以通过迭代逼近的方式确定参数最优解 B: 梯度下降法的参数更新搜索方向是负梯度方向 C: 梯度下降法搜索的是目标函数极小值点,因此求目标函数的极大值点不能使用梯度下降法 D: 牛顿迭代法的收敛速度很快但搜索方向构造困难,拟牛顿法是牛顿法的改进

    • 3

      有关BP网络的说法,哪个是错误的? A: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能 B: 与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数 C: 交叉熵也可以作为回归预测问题的损失函数 D: 神经元的激活函数选择影响神经网络的训练过程和最终性能

    • 4

      有关BP网络的说法,哪个是正确的? A: 交叉熵也可以作为分类预测问题的损失函数 B: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能 C: 与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数 D: 神经元的激活函数选择不影响神经网络的训练过程和最终性能