对于某深度学习模型而言,假设解决某个问题能够获得的训练样本比较少,类似问题已经有预训练好的模型,西面哪种方法利用预训练好的模型可能获得较好的效果?
A: 用新样本重新训练整个模型
B: 只训练最后几层神经元
C: 随机选几层进行训练
D: 只训练最后一层,其余层网络参数冻结
A: 用新样本重新训练整个模型
B: 只训练最后几层神经元
C: 随机选几层进行训练
D: 只训练最后一层,其余层网络参数冻结
举一反三
- 考虑这种情况:您尝试解决的问题有少量的数据。幸运的是,您有一个之前训练过的针对类似问题的神经网络模型。您将使用以下哪种方法来使用该预先训练的模型?() A: 冻结除最后一层之外的所有层,重新训练最后一层 B: 在每一层评估模型如何执行,只选择其中的一些 C: 对于新的数据集重新训练模型 D: 只微调最后几层
- 以下有关深度学习的训练说法,错误的是哪些? A: 如果能保证训练数据的质量,那么往往比挑选或者设计模型的收益更大 B: 对于图像分类问题而言,如果类别数远远超过类别样本数,那么通常的方法可能效果不好,需要对数据进行增强 C: 在预训练的模型基础上,采用微调(fine-tune)的方法对少量的新样本训练往往比从头训练效果差,但训练的速度快 D: 在预训练的模型进行微调时,一般预先对顶层的参数进行调整,这是因为与底层比较,顶层获得的特征是更通用的特征
- 训练一个模型指的是设置模型的()使得这个模型在训练集的表现较好。 A: 参数 B: 样本 C: 标签
- 利用人工智能技术对模型进行训练时,训练集的样本一定是越多越好()
- 一般地,不会把给定的整个数据集都用来训练模型,而是将其分成训练集和测试集两部分,使用训练集对模型进行训练或学习,然后把测试集输入训练好的模型并评估其表现。