• 2022-06-26
    下面有关决策树剪枝的说法错误的是()
    A: 决策树的深度并非越大越好
    B: 决策树剪枝的目的是为了降低模型复杂度,从而避免决策树模型过拟合
    C: 决策树剪枝可以放在决策树的构造过程中(预剪枝),也可以等决策树模型全部建立后再做(后剪枝)
    D: 决策树后剪枝的依据是看某层某个非叶子节点转换成叶子节点后, 模型在训练样本集上的准确度是否提升