当给定新的训练数据时,这些算法重构从先前训练数据学习得到的决策树,或从头开始学习一棵新树。
举一反三
- 下面哪一项 用决策树法训练大量数据集最节约时间() A: 增加学习率 B: 增加树的深度;增加学习率 C: 减少树的深度 D: 减少树的深度;减少树的个数
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 下面哪一项用决策树法训练大数据集最节约时间( )? A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的个数
- 我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以() A: 减少树的深度 B: 增加学习率 C: 增加树的深度 D: 减少树的数量
- 如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的( ) A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量