配色: 字号:
libsvm交叉验证与网格搜索教程
2012-04-09 | 阅:  转:  |  分享 
  
libsvm交叉验证与网格搜索教程

首先说交叉验证。交叉验证(Crossvalidation)是一种评估统计分析、机器学习算法对独立于训练数据的数据集的泛化能力(generalize),能够避免过拟合问题。交叉验证一般要尽量满足:1)训练集的比例要足够多,一般大于一半2)训练集和测试集要均匀抽样交叉验证主要分成以下几类:1)Doublecross-validationDoublecross-validation也称2-foldcross-validation(2-CV),作法是将数据集分成两个相等大小的子集,进行两回合的分类器训练。在第一回合中,一个子集作为训练集,另一个作为测试集;在第二回合中,则将训练集与测试集对换后,再次训练分类器,而其中我们比较关心的是两次测试集的识别率。不过在实际中2-CV并不常用,主要原因是训练集样本数太少,通常不足以代表母体样本的分布,导致测试阶段识别率容易出现明显落差。此外,2-CV中子集的变异度大,往往无法达到「实验过程必须可以被复制」的要求。2)k-foldercross-validation(k折交叉验证)K-foldcross-validation(k-CV)则是Doublecross-validation的延伸,做法是将数据集分成k个子集,每个子集均做一次测试集,其余的作为训练集。k-CV交叉验证重复k次,每次选择一个子集作为测试集,并将k次的平均交叉验证识别率作为结果。优点:所有的样本都被作为了训练集和测试集,每个样本都被验证一次。10-folder通常被使用。3)leave-one-outcross-validation(LOOCV留一验证法)假设数据集中有n个样本,那LOOCV也就是n-CV,意思是每个样本单独作为一次测试集,剩余n-1个样本则做为训练集。优点:1)每一回合中几乎所有的样本皆用于训练model,因此最接近母体样本的分布,估测所得的generalizationerror比较可靠。因此在实验数据集样本较少时,可以考虑使用LOOCV。2)实验过程中没有随机因素会影响实验数据,确保实验过程是可以被复制的。但LOOCV的缺点则是计算成本高,为需要建立的models数量与总样本数量相同,当总样本数量相当多时,LOOCV在实作上便有困难,除非每次训练model的速度很快,或是可以用平行化计算减少计算所需的时间。libsvm提供了voidsvm_cross_validation(conststructsvm_problemprob,conststructsvm_parameterparam,intnr_fold,doubletarget)方法,参数含义如下:prob:待解决的分类问题,就是样本数据。param:svm训练参数。nr_fold:顾名思义就是k折交叉验证中的k,如果k=n的话就是留一法了。target:预测值,如果是分类问题的话就是类别标签了。然后我们讨论下参数选择。使用svm,无论是libsvm还是svmlight,都需要对参数进行设置。以RBF核为例,在《APracticalGuidetoSupportVectorClassication》一文中作者提到在RBF核中有2个参数:C和g。对于一个给定的问题,我们事先不知道C和g取多少最优,因此我们要进行模型选择(参数搜索)。这样做的目标是找到好的(C,g)参数对,使得分类器能够精确地预测未知的数据,比如测试集。需要注意的是在在训练集上追求高精确度可能是没用的(意指泛化能力)。根据前一部分所说的,衡量泛化能力要用到交叉验证。在文章中作者推荐使用“网格搜索”来寻找最优的C和g。所谓的网格搜索就是尝试各种可能的(C,g)对值,然后进行交叉验证,找出使交叉验证精确度最高的(C,g)对。“网格搜索”的方法很直观但是看起来有些原始。事实上有许多高级的算法,比如可以使用一些近似算法或启发式的搜索来降低复杂度。但是我们倾向于使用“网格搜索”这一简单的方法:1)从心理上讲,不进行全面的参数搜索而是使用近似算法或启发式算法让人感觉不安全。2)如果参数比较少,“网格搜索”的复杂度比高级算法高不了多少。3)“网格搜索”可并行性高,因为每个(C,g)对是相互独立的。说了那么大半天,其实“网格搜索”就是n层循环,n是参数个数,仍然以RBF核为例,编程实现如下:for(doublec=c_begin;c


献花(0)
+1
(本文系zhenxin608首藏)