有关深度神经网络预训练模型的说法,正确的是哪些?
A: 当新的数据量少且数据与原数据集类似,可以对输出层训练即可,不需要对模型参数做过多的调整
B: 使用预训练模型意味着难以自由改变网络结构和参数,限制了其应用场合
C: 当新数据量比较大,且数据与原数据类似,可对预训练模型的所有层以较大的学习率微调
D: 当新数据量少,且数据和原数据集差异较大,那么除了对输出层微调外,还要对顶层以下的层数进行大调
A: 当新的数据量少且数据与原数据集类似,可以对输出层训练即可,不需要对模型参数做过多的调整
B: 使用预训练模型意味着难以自由改变网络结构和参数,限制了其应用场合
C: 当新数据量比较大,且数据与原数据类似,可对预训练模型的所有层以较大的学习率微调
D: 当新数据量少,且数据和原数据集差异较大,那么除了对输出层微调外,还要对顶层以下的层数进行大调
举一反三
- ____是训练机器学习算法的数据集;____是用来评估经训练后的模型性能的数据集;____是用来微调模型超参数的数据集。
- 测试集是训练机器学习算法的数据集训练集是用来评估经训练后的模型性能的数据集验证集是用来微调模型超参数的数据集。
- 当图像分类的准确率不高时,可以考虑以下哪种方法提高准确率 A: 数据增强 B: 调整超参数 C: 使用预训练网络参数 D: 减少数据集
- 在模型训练的时候为什么要将数据集拆分成训练集和测试集?( ) A: 测试集与训练集数据不能有重复.防止过拟合 B: 需要划分测试集数据用来调参 C: 数据集太多.训练模型用不了这么多数据
- 以下有关深度学习的训练说法,错误的是哪些? A: 如果能保证训练数据的质量,那么往往比挑选或者设计模型的收益更大 B: 对于图像分类问题而言,如果类别数远远超过类别样本数,那么通常的方法可能效果不好,需要对数据进行增强 C: 在预训练的模型基础上,采用微调(fine-tune)的方法对少量的新样本训练往往比从头训练效果差,但训练的速度快 D: 在预训练的模型进行微调时,一般预先对顶层的参数进行调整,这是因为与底层比较,顶层获得的特征是更通用的特征