如果想在大数据集上训练决策树, 为了使用较少时间, 我们可以 ( )
A: 增加树的深度
B: 增加学习率 (learning rate)
C: 减少树的深度
D: 减少树的数量
A: 增加树的深度
B: 增加学习率 (learning rate)
C: 减少树的深度
D: 减少树的数量
举一反三
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( )。 A: 增加学习率 (learning rate) B: 减少树的深度 C: 减少树的数量 D: 增加树的深度
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( ) A: 增加树的深度 B: 减少树的深度 C: 减少树的数量 D: 增加学习率 (learning rate)
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以() A: 减少树的深度 B: 增加学习率 C: 增加树的深度 D: 减少树的数量
- 我们想在大数据集上训练决策树,为了使用较少时间,我们可以() A: 减少树的数量 B: 增加树的深度 C: 减少树的深度 D: 增加学习率(1earningrate)
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量