信息增益算法有误的一步是()
A: 输入:训练数据集D和特征A
B: (1)计算数据集D的经验熵H(D)
C: (2)计算特征A对数据集
D: 的经验熵H(A)
D 输出信息增益g(D,A)
A: 输入:训练数据集D和特征A
B: (1)计算数据集D的经验熵H(D)
C: (2)计算特征A对数据集
D: 的经验熵H(A)
D 输出信息增益g(D,A)
举一反三
- 假设某数据集的原始熵值为0.7, 已知某属性的信息增益为0.2,那么利用该属性进行划分后数据集的熵值为:
- 假设某数据集的原始熵值为0.7,已知某属性的信息增益为0.2,那么利用该属性进行划分后数据集的熵值为 A: 0.9 B: 0.7 C: 0.5 D: 0.2
- 决策树算法中每次分类都按照信息增益最大进行的,分类前和分类后数据集的信息熵变化情况是() A: 变小 B: 变大 C: 不变 D: 无法判断
- 主成分分析的步骤是( )。 A: 中心化数据集-计算主成分矩阵-计算协方差矩阵-计算特征根-得到降维后的数据集 B: 中心化数据集-计算协方差矩阵-计算特征根-计算主成分矩阵-得到降维后的数据集 C: 计算协方差矩阵-计算主成分矩阵-计算特征根-中心化数据集-得到降维后的数据集 D: 计算协方差矩阵-计算特征根-中心化数据集-计算主成分矩阵-得到降维后的数据集
- 关于熵的概念,下面说法错误的是()。 A: 信息熵用来衡量事件不确定性的大小 B: 按照某一特征进行划分的信息增益与数据集合关于这个特征的信息熵的比值称为信息增益率 C: 信息增益表示某一特征的信息对类标签的不确定性减少的程度 D: 信息熵不具有可加性