为网络添加BN层能够一定程度上解决梯度弥散的问题,加快模型的收敛速度。根据BN层的算法原理,判断以下关于BN层的叙述正确的有
A: 在网络测试阶段,BN层的输出数据会被归一化,均值为0,方差为1
B: 对输入数据进行一定程度的缩小或放大操作,将不会影响BN层的输出
C: 在卷积层之后直接使用BN层,卷积层可以不设置bias
D: 假设某个2d的BN层,其输入通道数为n,则该BN层会有n组线性变换因子
A: 在网络测试阶段,BN层的输出数据会被归一化,均值为0,方差为1
B: 对输入数据进行一定程度的缩小或放大操作,将不会影响BN层的输出
C: 在卷积层之后直接使用BN层,卷积层可以不设置bias
D: 假设某个2d的BN层,其输入通道数为n,则该BN层会有n组线性变换因子
B,C,D
举一反三
- 卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的? A: 卷积层→BN层→激活层 B: 卷积层→激活层→BN层 C: BN层→卷积层→激活层 D: 激活层→卷积层→BN层
- 下面有关批归一化BN(batch normalization)的说法,错误的是哪个? A: BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡 B: BN可以减少每个隐层神经元梯度的变化幅度 C: BN起到了减少过拟合的作用 D: BN一般位于隐层神经元的激活函数输出之后
- 卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的?
- 中国大学MOOC: 卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的?
- 在训练了具有BN层的神经网络之后,需要新样本评估性能,应该 A: 直接使用训练期间得到的线性变换因子对 B: 假设训练期间的mini-batch为256,需要将测试图像反复输入256次,进行预测 C: 使用最后一次迭代时计算出来的线性变换因子对 D: 当单独测试一张图时,不需要用BN层
内容
- 0
在批标准化(BN)操作中,如果batch size大小为32,特征图深度为16,那么该BN层的总参数以及可训练参数个数分别为:
- 1
在批标准化(BN)操作中,如果batch size大小为32,特征图深度为16,那么该BN层的总参数以及可训练参数个数分别为: A: 256,128 B: 128,64 C: 64,32 D: 32,16
- 2
池化层一般接在哪种网络层之后。() A: 输入层 B: 输出层 C: 卷积层 D: 全连接层
- 3
已知数列{bn}的前n项和为Sn,bn=n+1(n+2)24n2,求Sn.
- 4
batchnormalization(BN)可以改善网络训练的稳定性,但也会一定程度上影响卷积神经网络的分类性能