分享

【实验】理解SVM的核函数和参数

 taotao_2016 2018-05-25

导言

支持向量机(SVM)在很多分类问题上曾经取得了当时最好的性能,使用非线性核的支持向量机可以处理线性不可分的问题。仅仅通过一个简单的核函数映射,就能达到如此好的效果,这让我们觉得有些不可思议。核函数过于抽象,在本文中,SIGAI将通过一组实验来演示核函数的有效性,并解释支持向量机各个参数所起到的作用,让大家对此有一个直观的认识。如果要了解SVM的理论,请阅读我们之前的公众号文章“用一张图理解SVM的脉络

核映射与核函数

通过核函数,支持向量机可以将特征向量映射到更高维的空间中,使得原本线性不可分的数据在映射之后的空间中变得线性可分。假设原始向量为x,映射之后的向量为z,这个映射为:

在实现时不需要直接对特征向量做这个映射,而是用核函数对两个特征向量的内积进行变换,这样做等价于先对向量进行映射然后再做内积:

在这里K为核函数。常用的非线性核函数有多项式核,高斯核(也叫径向基函数核,RBF)。下表列出了各种核函数的计算公式:

其中γ,b,d为人工设置的参数,d是一个正整数,γ为正实数,b为非负实数。


使用核函数后,支持向量机在训练时求解的对偶问题为:

其中为训练样本,为样本的特征向量,为类别标签,取值为,分别对应正样本和负样本,l为训练样本数。C为惩罚因子,用于对错误分类的训练样本进行惩罚,是一个人工设定的参数。在训练时,如果使用多项式核,需要指定的参数为核函数参数γ,b,以及d。如果选用高斯核,需要指定的参数为γ。无论使用哪种核函数,训练时都要指定惩罚因子C,这是一个大于0的实数。预测时的分类判别函数为:


其中sgn为符号函数,定义为:

 

实验

支持向量机真的能对非线性的数据进行分类吗?不同的训练参数会对分类结果产生什么样的影响?下面我们用一个小实验来验证。在这里,我们对二维平面上512x512像素的图像中的所有点进行分类,有蓝色和红色两类。先用一批样本训练一个模型,然后对平面内所有的点进行分类,分类结果的颜色和训练样本的颜色相同。


首先来看支持向量机能否处理异或问题,这是人工智能里一个很经典的分类问题,两类训练样本分别落在两个对角线上:

显然,用一条直线无论怎样划分都无法将这两类样本正确的分开。下面来看SVM的表现,我们使用线性核,多项式核,高斯核三种核函数进行训练。


首先选用线性核,结果是这样的:


所有样本都被判定成红色。不出所料,使用线性核的SVM是无法解决异或问题的。


接下来选用多项式核。首先将参数设置为:


分类效果非常差:


蓝色的样本只有少数被分对了。下面调整训练参数:


这里只加大了惩罚因子C的子,分类效果如下:


这比之前好了,蓝色的样本有一半被分对。接着调整参数:


分类效果如下:


现在是见证奇迹的时刻!所有训练样本都被正确分类,看来加大C的值非常有效。


下面来看高斯核的表现,如果参数设置为:


分类效果也是非常差:


所有的点都被分成了红色。下面加大惩罚因子的值:


大部分训练样本都可以正确分类:


进一步加大C的值:



效果比刚才更好,所有样本基本上都被正确分类了。


继续调整,加大C的值:

 


所有样本都被正确分类。


如果我们只加大γ的值,也能达到很好的效果:



所有样本同样被正确分类。

 

结论

通过上面的实验我们发现使用多项式核、高斯核的SVM确实是可以解决线性不可分问题的。不同的参数对精度的影响非常大,一般来说,C越大,训练得到的模型越准确。如果采用高斯核,参数γ的值对精度影响也非常大。因此,在实际应用时调一组好的参数对使用效果非常重要!



更正声明


图文《理解凸优化》中,存在以下两个错误:

[1]下图第二行第一列应该是对y和x求导,谢谢小伙伴@Roy及时指正。

[2]下图第二行最后一列应该是对X2和Xn求导,谢谢小伙伴@破晓 及时指正。



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多