• 2022-07-28
    下面哪些是Batch normalization的作用?
    A: 增加训练时间
    B: 可以使用更大的学习率,加快深层网络训练
    C: 减少梯度消失和梯度爆炸
    D: 使深层网络对隐层参数初始化不敏感
  • B,C,D

    内容

    • 0

      ResNet的特点不包括以下哪一项? A: 模型参数明显增加。 B: 学习结果对网络权重的波动变化更加敏感。 C: 减少深层网络的梯度消失问题。 D: 残差结果对数据的波动更加敏感。

    • 1

      哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数

    • 2

      以下哪些方法有助于解决模型训练过程中的过拟合问题? A: 正则化 B: Dropout C: Batch Normalization D: 提前终止训练 E: 梯度下降

    • 3

      有关神经网络参数初始化的说法错误的是哪个? A: 权重和偏置都可以取全零初始化 B: 使用正态分布初始化,但权重取太大或太小都会影响网络的训练 C: Xavier初始化可以减少梯度消失 D: 合适的权重初始化可以加快神经网络的训练和效果

    • 4

      对于卷积神经网络而言,减少梯度消失可以采用以下哪些方法? A: 增大学习率 B: 减少网络深度(隐层个数) C: skip connection D: 减少通道数