采用悲观剪枝方法对决策树进行剪枝时,要先将数据分为训练集和测试集两部分。
()
()
举一反三
- 关于对决策树进行剪枝的说法中正确的是() A: 先剪枝和后剪枝都可以降低决策树的过拟合风险 B: 后剪枝决策树的训练时间会比先剪枝决策树和未剪枝决策树长很多 C: 先剪枝和后剪枝都是利用验证集精度来判断是否剪枝的 D: 一般来说,后剪枝要比先剪枝的效果好很多
- 决策树分类的主要包括( ) A: 对数据源进行OLAP, 得到训练集和测试集; B: 对训练集进行训练; C: 对初始决策树进行树剪枝; D: 由所得到的决策树提取分类规则; E: 使用测试数据集进行预测,评估决策树模型;
- 关于决策树的说法中正确的是( ) A: 决策树算法的基础是二叉树,但不是所有的决策树都是二叉树,还有可能是多叉树 B: 常见的决策树剪枝有先剪枝和后剪枝 C: 决策树使用训练数据集进行预测,通过结果比对评估决策树模型 D: 决策树中包含根节点、分裂节点和叶节点
- 决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。( )
- 后剪枝是在决策树生长完成之后,对树进行剪枝。