以下对SVM算法的描述中正确的是()
A: SVM的可解释性较差,无法给出决策树那样的规则
B: SVM算法既可以解决线性问题,又可以解决非线性问题
C: SVM算法既可以处理小样本问题,又可以处理大规模训练样本
D: 任意核函数都可以将低维线性不可分数据映射到高维线性可分的情况,且效果没有任何区别
A: SVM的可解释性较差,无法给出决策树那样的规则
B: SVM算法既可以解决线性问题,又可以解决非线性问题
C: SVM算法既可以处理小样本问题,又可以处理大规模训练样本
D: 任意核函数都可以将低维线性不可分数据映射到高维线性可分的情况,且效果没有任何区别
A,A,B
举一反三
- 应用SVM算法时,每个核函数都可以将低维空间中的线性不可分数据映射为高维空间的线性可分数据,因此选择哪个核函数都可以。
- 以下说法正确的有哪些( )。 A: 软间隔的引入可以解决轻度线性不可分问题 B: SVM只能够解决回归问题 C: 核方法不能解决非线性问题 D: SVM是一种线性方法
- SVM分类器模型中软间隔(soft margin)的主要用途是() A: 解决线性不可分问题 B: 允许少量错分类样本,解决不完全线性可分问题 C: 降低算法时间复杂度 D: 提高算法分类精确度
- 在使用非线性SVM分类算法前,需要提前确定 A: 核函数和惩罚参数 B: 非线性映射 C: 将输入数据映射到多少维的高维空间中 D: 数据映射到高维空间中后是否是线性可分的
- 对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个高维特征空间中的线性分类问题,然后在高维特征空间中学习 线性SVM。
内容
- 0
SVM模型通过最大化边界实现线性分类,以下哪个可以使得SVM实现非线性分类 A: kernel B: 松弛变量 C: 对偶空间求解 D: SMO算法
- 1
支持向量机SVM无法处理线性不可分的数据集。( )
- 2
对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个高维特征空间中的线性分类问题,然后在高维特征空间中学习 线性SVM。 A: 正确 B: 错误
- 3
SVM通过什么实现线性不可分问题?() A: 特征降维 B: 特征筛选 C: 基尼指数 D: 核函数
- 4
线性SVM和一般线性分类器的区别主要是( )? A: 是否进行了空间映射 B: 是否确保间隔最大化 C: 是否能处理线性不可分问题 D: 训练误差通常较低