• 2022-07-22
    下面有关批归一化BN(batch normalization)的说法,错误的是哪个?
    A: BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡
    B: BN可以减少每个隐层神经元梯度的变化幅度
    C: BN起到了减少过拟合的作用
    D: BN一般位于隐层神经元的激活函数输出之后
  • 举一反三