BP算法总结错误的是 ( )。
A: 算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度
B: 当前层的连接权值梯度,取决于当前层神经元阈值梯度和上一层神经元输出
C: 隐层的阈值梯度只跟本层的神经元输出值有关
D: 隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值
A: 算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度
B: 当前层的连接权值梯度,取决于当前层神经元阈值梯度和上一层神经元输出
C: 隐层的阈值梯度只跟本层的神经元输出值有关
D: 隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值
举一反三
- 以下有关神经网络的说法错误的是( ) A: MP模型在隐藏层和输出层都对神经元进行激活函数处理 B: 使用多层功能神经元可以解决非线性可分问题 C: 神经网络“学”到的东西,蕴含在连接权值和阈值中 D: BP算法基于梯度下降策略
- 下面有关神经网络梯度消失说法错误的是() A: 当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。 B: 网络梯度消失可能导致有些权重难以更新,导致网路训练失败。 C: 网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。 D: 网络梯度消失可以通过减少隐层神经元的个数减弱。
- 在反向传播算法中,在前向传递过程中神经元j的输入信号相对于连接l层神经元i和l+1层神经元j的边的权重的梯度实际上等价于____? A: 神经元i的输出值 B: 神经元j的输出值 C: 神经元i的输入值 D: 神经元j的输入值
- 采用BP算法的神经网络模型称为(),一般由输入层、隐层和输出层组成,隐层可以是一层或者多层,每个层中又包含许多单个神经元,在BP神经网络中,层与层之间的神经元是全连接,层内部的神经元之间是无连接的。 A: BP神经网络 B: CNN C: NLP D: NLU
- 在BP学习算法中,误差信息是反向传播的,即从第一个隐层到输出层逐层修改各层神经元的连接权值,从而使网络误差最小。