LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是( )
A: PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B: LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C: 假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D: PCA和LDA均是基于监督学习的降维方法
A: PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B: LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C: 假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D: PCA和LDA均是基于监督学习的降维方法
举一反三
- 关于特征降维方法有线性判别分析(LDA)和主成分分析法(PCA),错误的是 A: LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间 B: LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法 C: PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法 D: LDA和PCA都是有监督的降维方法
- 中国大学MOOC: LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是( )
- 以下不是数据降维方法的是() A: PCA B: LDA C: LPP D: AHP
- LDA降维和PCA降维的不同之处包括( )。 A: LDA降维最多降到k-1维,而PCA没有这个限制 B: LDA除了可以用于降维,还可以用于分类 C: LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向 D: 两者在降维时特征分解的思想不同 E: LDA是有监督的降维方法,而PCA是无监督的降维方法
- 当数据集的原始维度和数据集内在的本征维度相同时,使用PCA进行降维,降维后的数据不会丢失重要的信息。