以下对SVM算法的描述中正确的是()
A: SVM的可解释性较差,无法给出决策树那样的规则
B: SVM算法既可以解决线性问题,又可以解决非线性问题
C: SVM算法既可以处理小样本问题,又可以处理大规模训练样本
D: 任意核函数都可以将低维线性不可分数据映射到高维线性可分的情况,且效果没有任何区别
A: SVM的可解释性较差,无法给出决策树那样的规则
B: SVM算法既可以解决线性问题,又可以解决非线性问题
C: SVM算法既可以处理小样本问题,又可以处理大规模训练样本
D: 任意核函数都可以将低维线性不可分数据映射到高维线性可分的情况,且效果没有任何区别
举一反三
- 应用SVM算法时,每个核函数都可以将低维空间中的线性不可分数据映射为高维空间的线性可分数据,因此选择哪个核函数都可以。
- 以下说法正确的有哪些( )。 A: 软间隔的引入可以解决轻度线性不可分问题 B: SVM只能够解决回归问题 C: 核方法不能解决非线性问题 D: SVM是一种线性方法
- SVM分类器模型中软间隔(soft margin)的主要用途是() A: 解决线性不可分问题 B: 允许少量错分类样本,解决不完全线性可分问题 C: 降低算法时间复杂度 D: 提高算法分类精确度
- 在使用非线性SVM分类算法前,需要提前确定 A: 核函数和惩罚参数 B: 非线性映射 C: 将输入数据映射到多少维的高维空间中 D: 数据映射到高维空间中后是否是线性可分的
- 对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个高维特征空间中的线性分类问题,然后在高维特征空间中学习 线性SVM。