决策树分类的主要包括( )
A: 对数据源进行OLAP, 得到训练集和测试集;
B: 对训练集进行训练;
C: 对初始决策树进行树剪枝;
D: 由所得到的决策树提取分类规则;
E: 使用测试数据集进行预测,评估决策树模型;
A: 对数据源进行OLAP, 得到训练集和测试集;
B: 对训练集进行训练;
C: 对初始决策树进行树剪枝;
D: 由所得到的决策树提取分类规则;
E: 使用测试数据集进行预测,评估决策树模型;
D,E
举一反三
- 采用悲观剪枝方法对决策树进行剪枝时,要先将数据分为训练集和测试集两部分。<br/>()
- 关于决策树的说法中正确的是( ) A: 决策树算法的基础是二叉树,但不是所有的决策树都是二叉树,还有可能是多叉树 B: 常见的决策树剪枝有先剪枝和后剪枝 C: 决策树使用训练数据集进行预测,通过结果比对评估决策树模型 D: 决策树中包含根节点、分裂节点和叶节点
- 评估模型的分类预测准确率,使用()进行评估。 A: 验证数据集 B: 训练数据集 C: 测试数据集 D: 未知数据
- 下列哪一种情况被称为过学习现象: A: 在训练集上A优于B,在测试集上A也优于B B: 在训练集上A优于B,在测试集上B优于A C: 相对于分类数据集,决策树过于简单 D: 在训练集上决策树的误差很小
- 想在大数据集上训练决策树,为了使用较少时间,可以()。 A: 增加树的深度 B: 增加学习率 C: 减少树的深度 D: 减少树的数量
内容
- 0
以下关于决策树说法错误的是 A: 决策树学习本质上是从训练数据集中归纳出一组分类规则. B: 从训练数据集中归纳出来的决策树至少有一个。 C: 决策树需要训练数据矛盾较小,同时具有很好的泛化能力。 D: 决策树学习是由训练数据集估计条件概率模型。
- 1
( )采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。 A: 决策树 B: 模型树 C: 回归树 D: 多元回归
- 2
我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以( )。 A: 增加树的深度 B: 增大学习率 C: 减少树的深度 D: 减少树的数量
- 3
我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以() A: 减少树的深度 B: 增加学习率 C: 增加树的深度 D: 减少树的数量
- 4
我们想在大数据集上训练决策树,为了使用较少时间,我们可以() A: 减少树的数量 B: 增加树的深度 C: 减少树的深度 D: 增加学习率(1earningrate)