关于决策树算法的描述正确的是( )。
A: 决策树可以看成一个If-then规则的集合。
B: 在决策树算法中,每个内部结点表示在一个特征或属性;每个分支代表这个特征或属性在某个值域上的输出;每个叶结点代表一种类别。
C: 决策树剪枝的目的是为了降低决策树算法的过拟合
D: 在决策树的各个结点上以信息增益为准则,选择划分后信息增益最大的属性作为划分属性,递归地构建决策树。
A: 决策树可以看成一个If-then规则的集合。
B: 在决策树算法中,每个内部结点表示在一个特征或属性;每个分支代表这个特征或属性在某个值域上的输出;每个叶结点代表一种类别。
C: 决策树剪枝的目的是为了降低决策树算法的过拟合
D: 在决策树的各个结点上以信息增益为准则,选择划分后信息增益最大的属性作为划分属性,递归地构建决策树。
A
举一反三
- 关于决策树算法的描述正确的是()。 A: 决策树剪枝的目的是为了降低决策树算法的过拟合 B: 决策树可以看成一个If-then规则的集合。 C: 在决策树的各个结点上以信息增益为准则,选择划分后信息增益最大的属性作为划分属性,递归地构建决策树。 D: 在决策树算法中,每个内部结点表示在一个特征或属性;每个分支代表这个特征或属性在某个值域上的输出;每个叶结点代表一种类别。
- 关于决策树的叙述中,错误的是() A: 决策树就是利用树型模型来描述决策分析问题,并直接在决策树图上进行决策分析的一种方法 B: 在决策树中,节点包括决策节点、状态节点和结果节点 C: 在决策树中,决策准则只能是益损期望值 D: 需要经过多级决策才能完成的决策,可以用多级决策树来表示
- 决策树法是用树型图的形式进行决策的方法。决策树的构成要素包括() A: 决策结点 B: 方案枝 C: 状态结点 D: 概率枝 E: 结果点
- 下面不同决策树算法与分支结点属性选择标准对应关系正确的是() A: ID3决策树--基尼指数; C4.5决策树--信息增益; CART决策树--信息增益率 B: ID3决策树--信息增益率; C4.5决策树--信息增益; CART决策树--基尼指数 C: ID3决策树--信息增益率; C4.5决策树--基尼指数; CART决策树--信息增益 D: ID3决策树--信息增益; C4.5决策树--信息增益率; CART决策树--基尼指数
- 关于决策树算法描述错误的是() A: 决策树包含根结点、内部结点和叶结点 B: 决策树算法对噪声的干扰十分敏感 C: 寻找最佳决策树是完全问题 D: 冗余属性不会对决策树的准确性造成不良影响
内容
- 0
决策树中,方块结点是( )结点。由决策点引出的树枝,称为( ),每个树枝代表一种( )。
- 1
下列关于决策树的表述中,错误的是 ( ) A: 决策树算法的基础是二叉树,但不是所有的决策树都是二叉树 B: 后剪枝就是决策树建好之后,再对整个树进行剪枝操作 C: 先剪枝就是在构建决策树的过程中进行剪枝 D: 决策树在构建过程中需要对分裂属性进行分裂,但是不需要删除已经选过的分裂属性
- 2
在决策树图中,“树”的分支代表()。 A: 不同的方案,每枝代表一个方案 B: 不同的自然状态,每枝代表一个自然状态 C: 不同的决策意见,每枝代表一种决策意见 D: 不同的决策或自然状态
- 3
2. 决策树法是用树型图的形式进行决策的方法。决策树的构成要素包括(ABCDE) A: A. 决策结点 B: B. 方案枝 C: C. 状态结点 D: D. 概率枝 E: E. 结果点
- 4
ID3决策树学习算法是以信息增益为准则来选择划分属性的。( )