同一个数据集上,通常使用随机森林的方法训练分类模型需要的时间比C4.5决策树更长。
A: 正确
B: 错误
A: 正确
B: 错误
举一反三
- 中国大学MOOC: 同一个数据集上,通常使用随机森林的方法训练分类模型需要的时间比C4.5决策树更长。
- 随机森林采用()形成每个决策树的训练集,即采用重采样方法产生训练集。
- 通常决策树之间相关系数越高,每棵决策树分类精度越高,决策树数量越多,随机森林模型的分类效果越好。
- 我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以( )。 A: 增加树的深度 B: 增大学习率 C: 减少树的深度 D: 减少树的数量
- 以下关于决策树说法错误的是 A: 决策树学习本质上是从训练数据集中归纳出一组分类规则. B: 从训练数据集中归纳出来的决策树至少有一个。 C: 决策树需要训练数据矛盾较小,同时具有很好的泛化能力。 D: 决策树学习是由训练数据集估计条件概率模型。