• 2022-07-28
    以下哪个不是batch normalization的优点?
    A: 减少梯度消失
    B: 提高网络训练速度
    C: 减少过拟合
    D: 梯度曲面更加光滑