以下关于决策树说法错误的是
A: 决策树学习本质上是从训练数据集中归纳出一组分类规则.
B: 从训练数据集中归纳出来的决策树至少有一个。
C: 决策树需要训练数据矛盾较小,同时具有很好的泛化能力。
D: 决策树学习是由训练数据集估计条件概率模型。
A: 决策树学习本质上是从训练数据集中归纳出一组分类规则.
B: 从训练数据集中归纳出来的决策树至少有一个。
C: 决策树需要训练数据矛盾较小,同时具有很好的泛化能力。
D: 决策树学习是由训练数据集估计条件概率模型。
举一反三
- 决策树学习本质上是从训练数据集中归纳出一组______规则。
- 当给定新的训练数据时,这些算法重构从先前训练数据学习得到的决策树,或从头开始学习一棵新树。
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的( ) A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
- 我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以( )。 A: 增加树的深度 B: 增大学习率 C: 减少树的深度 D: 减少树的数量