随机森林算法的分类精度不会随着决策树数量的增加而提高,通常300~500棵决策树的组合是适宜的。
举一反三
- 通常决策树之间相关系数越高,每棵决策树分类精度越高,决策树数量越多,随机森林模型的分类效果越好。
- 一个随机森林包含3棵决策树,一次分类结果中其中2棵决策树的结果是A,另一棵决策树的结果是B,则随机森林的最终分类结果是() A: A B: B C: A和B D: 决策树结果不统一,所以随机森林没有结果
- 梯度提升树(Gradient Boosting Decision Tree,GBDT)是一种常拿来与随机森林作比较的算法,该算法也由多个决策树组成,且结果由所有树的结果累加起来得到。与随机森林相似,GBDT既可以做回归树也可以做分类树。()
- 随机森林算法是仅对决策树算法的集成。
- 随机森林算法是仅对决策树算法的集成。 A: 正确 B: 错误