关于深度学习模型训练,以下哪个说法是错误的?
A: 网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
B: 网络层数越多,学习率可设置偏大,否则容易引起梯度消失
C: VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的正则化的作用
D: Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算
A: 网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
B: 网络层数越多,学习率可设置偏大,否则容易引起梯度消失
C: VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的正则化的作用
D: Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算
举一反三
- 下列关于训练模型的说法中,错误的是______。 A: 训练模型的过程,就是计算损失函数梯度,迭代更新模型参数 B: 只采用训练集来更新模型参数 C: 训练集和测试集都参与了对模型参数的更新 D: 训练集和测试集的误差都需要被记录下来
- 以下哪些是可能导致模型过拟合的原因( )。 A: 模型学习到了样本的一般性质 B: 学习迭代次数过多 C: 训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度 D: 训练集和测试集特征分布不一致
- 以下属于解决模型欠拟合的方法的是 A: 增加训练数据量 B: 对模型进行裁剪 C: 增加训练过程的迭代次数 D: 正则化
- 下面关于深度学习的描述,哪个说法是错误的? A: 池化在CNN中可以减少较多的计算量,加快模型训练 B: 通道数量越多,获得的特征图也就越多 C: 网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长 D: 网络结构的层次越深,其学习的特征可能越多,性能可能越好
- 关于梯度下降法中学习率的说法,错误的是______。 A: 学习率设置过小,收敛速度会非常慢 B: 学习率设置过大可能无法收敛 C: 学习率在训练过程中必须是一个固定不变的数 D: 为了兼顾模型的收敛速度和精度,在训练过程中可以动态调整学习率