我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( )。
A: 增加学习率 (learning rate)
B: 减少树的深度
C: 减少树的数量
D: 增加树的深度
A: 增加学习率 (learning rate)
B: 减少树的深度
C: 减少树的数量
D: 增加树的深度
举一反三
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( ) A: 增加树的深度 B: 减少树的深度 C: 减少树的数量 D: 增加学习率 (learning rate)
- 如果想在大数据集上训练决策树, 为了使用较少时间, 我们可以 ( ) A: 增加树的深度 B: 增加学习率 (learning rate) C: 减少树的深度 D: 减少树的数量
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以() A: 减少树的深度 B: 增加学习率 C: 增加树的深度 D: 减少树的数量
- 我们想在大数据集上训练决策树,为了使用较少时间,我们可以() A: 减少树的数量 B: 增加树的深度 C: 减少树的深度 D: 增加学习率(1earningrate)
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量