• 2022-07-28
    有关决策树过拟合的说法,错误的是?
    A: 决策树的训练样本拟合误差小,但检验样本的泛化误差比较大。
    B: 可能是决策树的深度变大了
    C: 可以使用剪枝的方法减少决策树的复杂度
    D: 当出现过拟合时,因为对训练样本的拟合比较好,因此对新样本的预测效果好。
  • D

    举一反三

    内容

    • 0

      以下决策树说法错误的是哪个() A: 决策树的过拟合时因为树的深度比较大引起,因此可以限制分支的最小样本数或控制树的深度解决。 B: 决策树中没有出现的属性是对分类无用的。 C: 相对于神经网络,决策树可解释性好,而且训练效率高。 D: 决策树算法对样本的噪声非常敏感,少数噪声可能引起决策树的很大变化。

    • 1

      以下有关决策树剪枝正确的说法是() A: 预剪枝是在节点分枝前确定是否要继续树增长,可以比较分枝前后的准确率确定。 B: 预剪枝可能导致欠拟合,因此要通过训练样本检验确定合适的树深度。 C: C4.5算法可以处理回归问题。 D: C4.5决策树的目标函数是信息增益。

    • 2

      产生的原因过拟合原因( ) A: 模型复杂度高 B: 样本数量太少 C: 决策树模型没有剪枝 D: 编程语言选择错误

    • 3

      决策树剪枝的主要目的是对抗( )。 A: 欠拟合 B: 不拟合 C: 算法复杂度 D: 过拟合

    • 4

      决策树中,先剪枝和后剪枝都可以降低过拟合风险,使决策树的泛化性能提升。