若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛。( )
举一反三
- 单层感知机对于线性不可分的数据,学习过程也可以收敛。()
- 关于线性和非线性支持向量机的描述,以下哪种说法不对 A: 当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机; B: 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机; C: 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机; D: 线性可分支持向量机利用间隔最大化求得最优分离超平面,这时的解不是唯一的
- 线性可分支持向量机利用间隔最大化求得最优分离超平面
- 以下关于感知器算法说法正确的为 A: 只要是训练数据集线性可分,感知器算法就一定能收敛。 B: 感知机学习算法存在许多的解,对同一个训练集来说,感知机初值的选择不同,最后得到的解就可能不同。 C: 当训练数据集线性不可分的情况下,袋式算法(PocketAlgorithm)使感知机也可以收敛于一个相对理想的解。 D: 多层感知器是感知器的推广,克服了感知器不能对线性不可分数据进行识别的弱点。
- 对于线性可分的训练数据而言,线性可分分离超平面有无穷多个,几何间隔最大的分离超平面也有无穷多个。