关于支持向量机描述正确的是 ( )
A: 概念提出比神经网络还要早
B: 若数据可以通过线性分类器来分类,希望找到分类最佳的平面,即使得属于两个不同类的数据点间隔最大的那个面,该面亦称为最大间隔超平面
C: 核函数不能用来解决低维空间难分的问题
D: 所谓支持向量是指那些在间隔区边缘之外的训练样本点
A: 概念提出比神经网络还要早
B: 若数据可以通过线性分类器来分类,希望找到分类最佳的平面,即使得属于两个不同类的数据点间隔最大的那个面,该面亦称为最大间隔超平面
C: 核函数不能用来解决低维空间难分的问题
D: 所谓支持向量是指那些在间隔区边缘之外的训练样本点
举一反三
- 如果找到分类最佳的平面,使得属于两个不同类的数据点距离超平面的间隔( ),则该面亦称为最大间隔超平面,最大间隔分类器。 A: 最小 B: 最大 C: 相等 D: 为零
- 关于SVM的描述正确的是:( ) A: 支持向量机模型定义在特征空间上的间隔最大的线性分类器 B: 支持向量机可以通过核技巧,这使之成为实质上的非线性分类器 C: 支持向量机的学习策略就是间隔最大化 D: 支持向量机训练时候,数据不需要归一化或者标准化
- 支持向量机分类方法的基本思路是将低维空间中的待分类点,通过升到n维空间以找到一个n-1维的最大间隔超平面将不同的类别区分开。
- 关于线性和非线性支持向量机的描述,以下哪种说法不对 A: 当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机; B: 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机; C: 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机; D: 线性可分支持向量机利用间隔最大化求得最优分离超平面,这时的解不是唯一的
- SVM 原理描述不正确的是( )。 A: 当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机 B: 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机 C: 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机 D: SVM 的基本模型是在特征空间中寻找间隔最小化的分离超平面的线性分类器