ResNet中引入shortcut的功能包括以下哪些?
A: 减少了计算量
B: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失
C: 引入残差模块,简化了学习
D: 改善了网络的特征获取能力
A: 减少了计算量
B: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失
C: 引入残差模块,简化了学习
D: 改善了网络的特征获取能力
举一反三
- ResNet中引入shortcut的功能不包括以下哪一个? A: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失 B: 引出了残差模块,简化了学习 C: 改善了网络的特征获取能力 D: 减少了计算量
- 针对深度学习的梯度消失问题,哪种因素可能是无效的? A: 增大学习率 B: 减少网络深度 C: 添加shortcut(skip) connection D: 减少输入层词嵌入向量维度
- ResNet的特点不包括以下哪一点? A: 减少深层网络的梯度消失问题 B: 特征的重用 C: 增强特征的获取能力 D: 模型参数明显增加
- ResNet的特点不包括以下哪一点? A: 模型参数明显增加。 B: 学习结果对网络权重的波动变化更加敏感。 C: 减少深层网络的梯度消失问题。 D: 残差结果对数据的波动更加敏感。
- ResNet的特点不包括以下哪一项? A: 模型参数明显增加。 B: 学习结果对网络权重的波动变化更加敏感。 C: 减少深层网络的梯度消失问题。 D: 残差结果对数据的波动更加敏感。