针对深度学习的梯度消失问题,哪种因素可能是无效的?
A: 增大学习率
B: 减少网络深度
C: 添加shortcut(skip) connection
D: 减少输入层词嵌入向量维度
A: 增大学习率
B: 减少网络深度
C: 添加shortcut(skip) connection
D: 减少输入层词嵌入向量维度
举一反三
- 对于卷积神经网络而言,减少梯度消失可以采用以下哪些方法? A: 增大学习率 B: 减少网络深度(隐层个数) C: skip connection D: 减少通道数
- 哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数
- ResNet中引入shortcut的功能包括以下哪些? A: 减少了计算量 B: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失 C: 引入残差模块,简化了学习 D: 改善了网络的特征获取能力
- 下列哪项不属于梯度消失问题的解决手段() A: 减少层数 B: 减小学习率 C: 增大学习率 D: 用Relu代替sigmoid
- ResNet中引入shortcut的功能不包括以下哪一个? A: ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失 B: 引出了残差模块,简化了学习 C: 改善了网络的特征获取能力 D: 减少了计算量