LDA降维和PCA降维的不同之处包括( )。
A: LDA降维最多降到k-1维,而PCA没有这个限制
B: LDA除了可以用于降维,还可以用于分类
C: LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向
D: 两者在降维时特征分解的思想不同
E: LDA是有监督的降维方法,而PCA是无监督的降维方法
A: LDA降维最多降到k-1维,而PCA没有这个限制
B: LDA除了可以用于降维,还可以用于分类
C: LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向
D: 两者在降维时特征分解的思想不同
E: LDA是有监督的降维方法,而PCA是无监督的降维方法
举一反三
- 关于特征降维方法有线性判别分析(LDA)和主成分分析法(PCA),错误的是 A: LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间 B: LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法 C: PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法 D: LDA和PCA都是有监督的降维方法
- LDA降维和PCA降维的相同之处包括( )。 A: 都可以用于分类 B: 都是有监督的降维方法 C: 两者在降维时均使用了矩阵特征分解的思想 D: 两者均可以对数据进行降维 E: 两者都假设数据符合高斯分布
- 下列关于PCA和LDA的描述正确是( )。 A: PCA和LDA都可对高维数据进行降维 B: PCA可以保留类的信息 C: LDA可以保留类的信息 D: PCA一般选择方差大的方向进行投影
- LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是( ) A: PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关) B: LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关) C: 假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1 D: PCA和LDA均是基于监督学习的降维方法
- 下列属于特征降维的方法有( )。 A: PCA B: LDA C: One-Hot D: Code-Decode