( )采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。
A: 决策树
B: 模型树
C: 回归树
D: 多元回归
A: 决策树
B: 模型树
C: 回归树
D: 多元回归
举一反三
- 中国大学MOOC: ( )采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。
- 如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的( ) A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以( )。 A: 增加树的深度 B: 增大学习率 C: 减少树的深度 D: 减少树的数量
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 下面哪一项用决策树法训练大数据集最节约时间( )? A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的个数