误差修正规则是一种常见的神经网络的学习规则,这种规则根据实际输出和期望输出的误差进行网络连接权值的修正,最终网络误差小于目标函数达到预期结果。
举一反三
- 不管是BP神经网络还是CNN神经网络,他们的训练过程是相似的,就是每输入一个数据,按层计算每个神经元的加权汇聚求和,并通过激活函数产生输出,直到最后的输出层产生一个网络的实际输出,用这个实际输出和期望的输出——即输入数据的标签进行比较(求差),误差大就反复调整网络的参数(权值和阈值),直到误差(网络性能指标)满足要求为止。
- 神经网络中,以下说法的正确的是 ( ) A: Delta学习规则称为梯度法,主要是通过减少单元间的连接权重来减小实际输出与期望输出之间的误差 B: BP神经网络是一个多层的前向神经网络 C: 神经网络的学习主要包括网络结构的学习和连接权值的学习 D: 神经网络既可以进行线性分类,又可以进行非线性分类
- 反向传播用于逐层传递误差,修改神经元间的连接权值,以使网络对输入信息经过计算后所得到的输出能达到期望的误差要求。
- BP神经网络的学习过程,是对网络权值进行不断修正的过程。
- 以下关于误差的说法错误的是( ) A: 在神经网络中,误差是向后传播的 B: 可以使用误差来调整神经网络的权重 C: 误差一定是正值 D: 是实际输出值与期望输出值之间的差