• 2022-05-27
    剪枝是决策树学习算法对付“过拟合”的主要手段()
  • 内容

    • 0

      下列关于决策树剪枝的论述不正确的是 A: 决策树剪枝主要是防止欠拟合 B: 决策树算法会产生层数太多,节点数过多的树,因此需要对树进行剪枝处理 C: 预剪枝会依据节点的不纯度设置阈值从而决定是否分裂 D: 后剪枝使用自定义的整体损失函数衡量决策树的优劣,对比剪枝前后的决策树决定是否实施剪枝操作

    • 1

      下面有关决策树剪枝的说法错误的是? A: 决策树剪枝的目的是为了减少训练过程的过拟合,从而提升决策树模型的准确性。 B: 决策树剪枝可以放在决策树的构造过程(预剪枝),也可以等决策树模型全部建立后再做(后剪枝)。 C: 决策树剪枝的依据是看某层某个非叶节点转换成叶节点后,训练样本集的检验准确度是否提升。 D: 决策树剪枝符合Occam剃刀原理(即机器学习模型越简单越好)。

    • 2

      决策树学习算法主要包括①决策树的生成、②决策树的剪枝、③特征选择等3个部分,3个部分顺序正确的是( ) A: ①②③ B: ③①② C: ③②① D: ②①③

    • 3

      后剪枝决策树通常比预剪枝决策树保留了更多的分支。一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。( )

    • 4

      以下有关决策树剪枝正确的说法是() A: 预剪枝是在节点分枝前确定是否要继续树增长,可以比较分枝前后的准确率确定。 B: 预剪枝可能导致欠拟合,因此要通过训练样本检验确定合适的树深度。 C: C4.5算法可以处理回归问题。 D: C4.5决策树的目标函数是信息增益。