ResNet中引入shortcut的功能不包括以下哪一个?
A: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失
B: 引出了残差模块,简化了学习
C: 改善了网络的特征获取能力
D: 减少了计算量
A: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失
B: 引出了残差模块,简化了学习
C: 改善了网络的特征获取能力
D: 减少了计算量
举一反三
- ResNet中引入shortcut的功能包括以下哪些? A: 减少了计算量 B: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失 C: 引入残差模块,简化了学习 D: 改善了网络的特征获取能力
- ResNet的特点不包括以下哪一点? A: 减少深层网络的梯度消失问题 B: 特征的重用 C: 增强特征的获取能力 D: 模型参数明显增加
- 针对深度学习的梯度消失问题,哪种因素可能是无效的? A: 增大学习率 B: 减少网络深度 C: 添加shortcut(skip) connection D: 减少输入层词嵌入向量维度
- ResNet的特点不包括以下哪一项? A: 模型参数明显增加。 B: 学习结果对网络权重的波动变化更加敏感。 C: 减少深层网络的梯度消失问题。 D: 残差结果对数据的波动更加敏感。
- ResNet的特点不包括以下哪一点? A: 模型参数明显增加。 B: 学习结果对网络权重的波动变化更加敏感。 C: 减少深层网络的梯度消失问题。 D: 残差结果对数据的波动更加敏感。