分类算法中下面那些说法是正确的?
A: 作为决策树分支属性的选择方法,信息增益的效果不如Gini指数。
B: 一般而言,分类算法准确率提高,召回率就会下降,因此可以使用F1值作为评价分类算法的综合评价指标。
C: k折交叉校验中的k可以通过实验确定合理的值,常用取10。
D: 对于同一个训练样本集,不同的决策树算法可能得到不同的决策树模型,模型的好坏可以比较检验样本的评价指标确定。
A: 作为决策树分支属性的选择方法,信息增益的效果不如Gini指数。
B: 一般而言,分类算法准确率提高,召回率就会下降,因此可以使用F1值作为评价分类算法的综合评价指标。
C: k折交叉校验中的k可以通过实验确定合理的值,常用取10。
D: 对于同一个训练样本集,不同的决策树算法可能得到不同的决策树模型,模型的好坏可以比较检验样本的评价指标确定。
举一反三
- 下列关于有监督机器学习的算法中,说法正确的是 A: 如果一个属性对于所有样本都没有区分能力,那么对于决策毫无用处 B: 单一支持向量机模型本身是针对多分类问题的算法 C: K近邻算法中,K值的选择,不会对分类结果有很大影响 D: 属性在决策树中的位置不同,并不会影响决策树的效率
- 使用Gini指数作为决策树分支标准的决策树算法是? A: ID3算法 B: C4.5算法 C: CART算法 D: CHAID算法
- 以下有关决策树剪枝正确的说法是() A: 预剪枝是在节点分枝前确定是否要继续树增长,可以比较分枝前后的准确率确定。 B: 预剪枝可能导致欠拟合,因此要通过训练样本检验确定合适的树深度。 C: C4.5算法可以处理回归问题。 D: C4.5决策树的目标函数是信息增益。
- 下面不同决策树算法与分支结点属性选择标准对应关系正确的是() A: ID3决策树--基尼指数; C4.5决策树--信息增益; CART决策树--信息增益率 B: ID3决策树--信息增益率; C4.5决策树--信息增益; CART决策树--基尼指数 C: ID3决策树--信息增益率; C4.5决策树--基尼指数; CART决策树--信息增益 D: ID3决策树--信息增益; C4.5决策树--信息增益率; CART决策树--基尼指数
- 有关决策树的分类方法正确的是? A: 决策树不能确定对决策属性起重要影响的变量 B: 决策树可以用于发现多种样本的特征 C: 决策树可用于确定相似的样本 D: 决策树结构越复杂越有效