以下操作不能缓解梯度消失问题的是 。
A: 选择合适的激活函数
B: 采用批规范化方法
C: 采用特殊的网络结构
D: 限制训练时间
A: 选择合适的激活函数
B: 采用批规范化方法
C: 采用特殊的网络结构
D: 限制训练时间
举一反三
- 以下操作不能缓解梯度消失问题的是()。
- 以下能够避免梯度消失和梯度爆炸的方法有? A: 梯度裁剪,给定梯度的上下阈值 B: 批规范化 C: 使用残差网络结构 D: 采用带记忆的网络结构,如LSTM
- 哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数
- 下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数
- AlexNet使用ReLU激活函数的好处不包括以下哪个方面 A: 提高网络训练速度 B: 梯度为0时神经元难以正常工作 C: 开销小、计算快 D: 缓解了梯度消失问题