如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的?
A: 增加树的深度
B: 增加学习率
C: 减小树的深度
D: 减少树的数量
A: 增加树的深度
B: 增加学习率
C: 减小树的深度
D: 减少树的数量
举一反三
- 如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列做法正确的是 A: 增加学习率 B: 增加树的深度 C: 减小树的深度 D: 减少树的数量
- 如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的( ) A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 如果想在大数据集上训练决策树, 为了使用较少时间, 我们可以 ( ) A: 增加树的深度 B: 增加学习率 (learning rate) C: 减少树的深度 D: 减少树的数量
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以() A: 减少树的深度 B: 增加学习率 C: 增加树的深度 D: 减少树的数量