当数据集的原始维度和数据集内在的本征维度相同时,使用PCA进行降维,降维后的数据不会丢失重要的信息。
举一反三
- 数据集的本征维度是表示数据集所需要的最小变量数,与数据集的原始维度不同,一般地,本征维度大于原始维度。
- LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是( ) A: PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关) B: LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关) C: 假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1 D: PCA和LDA均是基于监督学习的降维方法
- 关于降维,下列说法错误的是( )。 A: 降维后的数据集的维度将比降维前少 B: 有效降维能减少冗余信息,提高模型精度和运行效率 C: 特征选择不会改变数据,仅从原有变量中找出主要变量 D: 特征提取从原有数据中提取主要成分,不会改变原有数据
- 下列关于降维说法正确的有( )。 A: PA 是根据方差这一属性降维的 B: 降维可以防止模型过拟合 C: 降维降低了数据集特征的维度 D: 降维方法有 PLA 等
- 主成分分析的步骤是( )。 A: 中心化数据集-计算主成分矩阵-计算协方差矩阵-计算特征根-得到降维后的数据集 B: 中心化数据集-计算协方差矩阵-计算特征根-计算主成分矩阵-得到降维后的数据集 C: 计算协方差矩阵-计算主成分矩阵-计算特征根-中心化数据集-得到降维后的数据集 D: 计算协方差矩阵-计算特征根-中心化数据集-计算主成分矩阵-得到降维后的数据集