下图是一个利用sigmoid函数作为激活函数的含四个隐藏层的神经网络训练的梯度下降图。这个神经 [br][/br]网络遇到了梯度消失的问题。下面哪个叙述是正确的?
A: 第一隐藏层对应D,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应A
B: 第一隐藏层对应A,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应D
C: 第一隐藏层对应A,第二隐藏层对应B,第三隐藏层对应C,第四隐藏层对应D
D: 第一隐藏层对应B,第二隐藏层对应D,第三隐藏层对应C,第四隐藏层对应A
A: 第一隐藏层对应D,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应A
B: 第一隐藏层对应A,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应D
C: 第一隐藏层对应A,第二隐藏层对应B,第三隐藏层对应C,第四隐藏层对应D
D: 第一隐藏层对应B,第二隐藏层对应D,第三隐藏层对应C,第四隐藏层对应A
举一反三
- 具有8个隐藏层的神经网络一共有多少层?
- 多层神经网络模型中信息的正向传播是指输入信息( )输出。 A: 由输入层传至隐藏层再传至输出层 B: 由输入层传至隐藏层后截止 C: 由隐藏层传向输入层 D: 由输出层传向隐藏层
- BP(后向传播)神经网络是一种多层前向(前馈)网络。以下关于“前向”、“后向”的说法正确的有()。 A: 网络的输入由输入层前向传至隐藏层再至输出层,输出误差由输出层反向传回至输入层 B: 网络的输入由输入层前向传至隐藏层再至输出层,输出误差由输出层反向传回至各隐藏层 C: 网络的输入由输入层前向传至隐藏层,输出误差由输出层反向传回至隐藏层 D: 网络的输入由输入层前向传至隐藏层,输出由输出层反向传回至各隐藏层
- 关闭层可将此层隐藏。
- 深度学习就是具有很多个隐藏层、每个隐藏层具有很多结点的神经网络。