对于神经网络隐层神经元的数量,如果数量太少会导致网络拟合能力不足,数量太多会导致网络训练速度慢,并且网络的泛化能力可能弱。
举一反三
- 下面关于神经网络参数的说法错误的是 A: 在选择神经网络的层数时,隐藏层的层数应该是越少越好。 B: 神经网络的模型受到神经元的传递函数、网络结构和连接权值的学习这三个因素的影响。 C: 在多层前馈网络中,若隐层节点数量太少,会出现欠学习的问题。 D: 在多层前馈网络中,若隐层节点数量太少,会出现过学习的问题。
- 下面有关神经网络梯度消失说法错误的是() A: 当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。 B: 网络梯度消失可能导致有些权重难以更新,导致网路训练失败。 C: 网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。 D: 网络梯度消失可以通过减少隐层神经元的个数减弱。
- 神经网络进行训练中:(多选) A: 主要目的是为了让泛化能力更强 B: 训练误差总是越小越好,不用管泛化能力 C: 训练样本的质量和数量影响泛化能力 D: 训练中经常出现过拟合现象
- 然而使用神经网络的主要问题在于如何控制网络模型的复杂度,若不对网络的复杂度进行控制,结果必将出现过拟合问题从而使网络泛化能力变强。( )
- 下列选项中属于BP网络的不足的是? A: 全连接网络计算大 B: 隐层神经元数量难以确定 C: 容易陷入局部极小值 D: 无法做到深度很深,会产生梯度消失