什么是Hard-Margin SVM?指的是这个向量机只适用于“数据完全可分(seperately)”的情况。 (一)什么是支持向量机? 
上述三条直线,选择哪一条比较好?直觉上来说,最右面的那条直线最好。因为它的Margin比较胖,对数据点中混杂的噪声容忍度更高,更加robust。所以以后我们在计算w的时候,加上一个限制条件:寻找Margin最胖的w。 
w能将所有的点分开,等价于:对于所有的点,有ynwTxn > 0. 
首先需要解决一个问题:如何衡量distance? 为了更好的表达这个问题,我们先明确一下符号的含义: 
把w拆成两部分。 

现在我们已经知道了distance如何衡量,我们的问题转化成: 
这个问题是什么呢?以二维直线为例:对于一堆可以把所有数据点正确分类的直线,选择margin(b,w)最大的直线。 现在来想:这些直线都是可以scaling的,假设我scaling所有的w,使得: 
再次转化问题: 
现证明最终形式等价于上一个形式: 对于所有n 条件下,寻找最小的|w|。假设找到一组(b,w)。且对于所有的n,有 (a>1)。必然存在一组(b/a, w/a),满足条件,且具有更小的|w|。存在矛盾,所以必然有a=1.那么问题就等于于: 。证明完毕。 
上述形式即为支持向量机。 我们可以看出,对于支持向量机,相当于在线性模型上加了一个限制条件,使得VC dimension减小。 具体的有: 
这里的ρ代表的就是margin的大小。 支持向量机的好处是: 
(二)如何计算SVM(1) 
对于SVM这种形式呢,我们可以用一个叫做“二次规划”的工具来求解。 “二次规划”是一个工具程序,我们只要把SVM的输入输出改写成符合“二次规划”要求的输入输出,利用现有的工具计算即可。 
(三)如何计算SVM(2) 对于non-linear SVM,数据点的维度非常大 
现在的问题是:对于nonlinear SVM,如何实现下述目标? 
这需要非常多的数学知识,下面只讲概况。 1)首先使用Lagrange Multipliers 
SVM问题转化为: 。 2)对偶问题 

其对偶问题只不过是将max与min位置互换。 

补充说明:只有满足KKT condition的情况下,原问题(primal)与对偶问题(dual)的最优解相同。 
(第四个条件:primal-inner optimal,可以通过Lagrange Multipliers那一张PPT解释)
继续求解: 

再根据KKT condition,我们可以利用α的值,表达出optimal (b,w) 
PS: 1)根据 ,当αn大于0时,必然有 ,也即:第n个数据点在margin上; 2)同时,在计算w和b的时候,只有大于0的αn起作用。 所以对于αn> 0的数据点(zn, yn)称之为支持向量。 这个支持向量不同于之前我们定义的支持向量,因为 两个都为0的情况没有考虑。 
问题真的解决了么?没有。两个问题: 1)如果N很大的话,例如N=30000,那么单单存储Q矩阵(N*N)就需要>3G RAM。所以我们需要特殊的、为SVM定制的QP程序; 2)我们并没有实现目标,只是把计算复杂度给隐藏了。 
(四)真正解决SVM:核函数 举一个例子: 
这样的话: 

OK,现在SVM问题解决了! 补充一点关于核函数的知识: 1)对于Polynomial 核函数,我们最常用的形式是:如下第三种形式  
2)最好先从Q=1开始(先从线性模型开始做) 
3)高斯核函数  
因为高斯核函数很难从物理角度解释,所以使用的使用必须慎重的选择参数: 
3)三种核函数比较:  
 
原文:http://www.cnblogs.com/wangyanphp/p/5498858.html
|