下面有关批归一化BN(batch normalization)的说法,错误的是哪个?
A: BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡
B: BN可以减少每个隐层神经元梯度的变化幅度
C: BN起到了减少过拟合的作用
D: BN一般位于隐层神经元的激活函数输出之后
A: BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡
B: BN可以减少每个隐层神经元梯度的变化幅度
C: BN起到了减少过拟合的作用
D: BN一般位于隐层神经元的激活函数输出之后
举一反三
- 卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的? A: 卷积层→BN层→激活层 B: 卷积层→激活层→BN层 C: BN层→卷积层→激活层 D: 激活层→卷积层→BN层
- 以下哪些方法可以减少深度神经网络模型的过拟合问题? A: Dropout B: BN(batch normalization) C: Residual结构 D: 损失函数的正则项
- 为网络添加BN层能够一定程度上解决梯度弥散的问题,加快模型的收敛速度。根据BN层的算法原理,判断以下关于BN层的叙述正确的有 A: 在网络测试阶段,BN层的输出数据会被归一化,均值为0,方差为1 B: 对输入数据进行一定程度的缩小或放大操作,将不会影响BN层的输出 C: 在卷积层之后直接使用BN层,卷积层可以不设置bias D: 假设某个2d的BN层,其输入通道数为n,则该BN层会有n组线性变换因子
- 【多选题】批规范化(Batch Normalization)的好处都有: A: 和原始数据的标准化作用相同。 B: 简化调参,网络更稳定。BN层抑制了参数微小变化随网络加深而被放大的问题,对参数变化的适应能力更强,更容易调参。 C: 防止过拟合。BN层将每一个batch的均值和方差引入到网络中,由于每个batch的这俩个值都不相同,可看做为训练过程增 加了随机噪声,可以起到一定的正则效果,防止过拟合。 D: 缓解梯度消失,加速网络收敛。
- 在批标准化(BN)操作中,如果batch size大小为32,特征图深度为16,那么该BN层的总参数以及可训练参数个数分别为: