导读:集成学习是目前机器学习领域最热门的研究方向之一,近年来许多机器学习竞赛的冠军均使用了集成学习。 本文介绍了集成学习中比较具有代表性的方法,如Boosting、Bagging等。而XGBoost是集成学习中的佼佼者,目前,一些主流的互联网公司如腾讯、阿里巴巴等都已将XGBoost应用到其业务中。本文对XGBoost的历史演化、应用场景及其优良特性进行了阐述,为入门XGBoost并进一步学习打下基础。 作者:何龙 来源:大数据DT(ID:hzdashuju) 01 集成学习 集成学习的基本思想是把多个学习器通过一定方法进行组合,以达到最终效果的提升。虽然每个学习器对全局数据的预测精度不高,但在某一方面的预测精度可能比较高,俗话说“三个臭皮匠顶个诸葛亮”,将多个学习器进行组合,通过优势互补即可达到强学习器的效果。 集成学习最早来自于Valiant提出的 PAC(Probably Approximately Correct)学习模型,该模型首次定义了弱学习和强学习的概念:识别准确率仅比随机猜测高一些的学习算法为弱学习算法;识别准确率很高并能在多项式时间内完成的学习算法称为强学习算法。 该模型提出给定任意的弱学习算法,能否将其提升为强学习算法的问题。1990年,Schapire对其进行了肯定的证明。 这样一来,我们只需要先找到一个弱学习算法,再将其提升为强学习算法,而不用一开始就找强学习算法,因为强学习算法比弱学习算法更难找到。目前集成学习中最具代表性的方法是:Boosting、Bagging和Stacking。 1. Boosting 简单来讲,Boosting会训练一系列的弱学习器,并将所有学习器的预测结果组合起来作为最终预测结果,在学习过程中,后期的学习器更关注先前学习器学习中的错误。 1995年,Freund等人提出了AdaBoost,成为了Boosting代表性的算法。AdaBoost继承了Boosting的思想,并为每个弱学习器赋予不同的权值,将所有弱学习器的权重和作为预测的结果,达到强学习器的效果。 Gradient Boosting是Boosting思想的另外一种实现方法,由Friedman于1999年提出。与AdaBoost类似,Gradient Boosting也是将弱学习器通过一定方法的融合,提升为强学习器。 与AdaBoost不同的是,它将损失函数梯度下降的方向作为优化的目标,新的学习器建立在之前学习器损失函数梯度下降的方向,代表算法有GBDT、XGBoost(XGBoost会在下文详细介绍)等。 一般认为,Boosting可以有效提高模型的准确性,但各个学习器之间只能串行生成,时间开销较大。 2. Bagging Bagging(Bootstrap Aggregating)对数据集进行有放回采样,得到多个数据集的随机采样子集,用这些随机子集分别对多个学习器进行训练(对于分类任务,采用简单投票法;对于回归任务采用简单平均法),从而得到最终预测结果。 随机森林是Bagging最具代表性的应用,将Bagging的思想应用于决策树,并进行了一定的扩展。一般情况下,Bagging模型的精度要比Boosting低,但其各学习器可并行进行训练,节省大量时间开销。 3. Stacking Stacking的思想是通过训练集训练好所有的基模型,然后用基模型的预测结果生成一个新的数据,作为组合器模型的输入,用以训练组合器模型,最终得到预测结果。组合器模型通常采用逻辑回归。 下面我们来具体了解下XGBoost。 02 XGBoost XGBoost(Extreme Gradient Boosting)由华盛顿大学的陈天奇博士提出,最开始作为分布式(深度)机器学习研究社区(DMLC)小组的研究项目之一。后因在希格斯(Higgs)机器学习挑战赛中大放异彩,被业界所熟知,在数据科学应用中广泛应用。 目前,一些主流的互联网公司如腾讯、阿里巴巴等都已将XGBoost应用到其业务中,在各种数据科学竞赛中,XGBoost也成为竞赛者们夺冠的利器。 XGBoost在推荐、搜索排序、用户行为预测、点击率预测、产品分类等问题上取得了良好的效果。 虽然这些年神经网络(尤其是深度神经网络)变得越来越流行,但XGBoost仍旧在训练样本有限、训练时间短、调参知识缺乏的场景下具有独特的优势。相比深度神经网络,XGBoost能够更好地处理表格数据,并具有更强的可解释性,另外具有易于调参、输入数据不变性等优势。 XGBoost是Gradient Boosting的实现,相比其他实现方法,XGBoost做了很多优化,在模型训练速度和精度上都有明显提升,其优良特性如下。
03 XGBoost运行环境搭建XGBoost安装分为两种方式,一种是直接通过pip安装(适用于Ptyhon),另一种是直接编译源码安装。 1. 通过pip安装通过pip安装Python包既简单又方便。如果读者准备在Python环境下使用XGBoost,即可以采用此方法。只需执行如下命令: pip install xgboost 若Python版本为3.X,则执行命令为pip3 install xgboost。安装完毕后,即可在Python里直接引用XGBoost包,如下:
2. 通过源码编译安装虽然通过pip安装XGBoost虽然方便,但其安装的XGBoost可能并非最新版本。源码编译安装XGBoost主要分为两个步骤:① 通过C++代码构建共享库;② 安装相应语言包。 1)构建共享库 Linux下首先通过Git将XGBoost项目从github上克隆下来。因为XGBoost使用了Git submodules来管理依赖,因此在执行克隆时需加上--recursive选项,然后通过make对源码直接编译,如下: git clone --recursive https://github.com/dmlc/xgboost 2)Python包安装 共享库编译完成之后,即可安装相应的语言包,此处以Python包为例。XGBoost使用Distutils来实现Python环境中的构建和安装,对于用户来讲安装过程十分简单。XGBoost的Python包在python-package中,用户只需进入该目录然后执行安装命令即可,如下:
04 XGBoost告诉你蘑菇是否有毒XGBoost安装完成后,本节通过一个简单的示例,介绍如何使用XGBoost解决机器学习问题。该示例使用的是XGBoost自带的数据集(位于/demo/data文件夹下),该数据集描述的是不同蘑菇的相关特征,比如大小、颜色等,并且每一种蘑菇都会被标记为可食用的(标记为0)或有毒的(标记为1)。 我们的任务是对蘑菇特征数据进行学习,训练相关模型,然后利用训练好的模型预测未知的蘑菇样本是否具有毒性。下面用XGBoost解决该问题,如下: import xgboost as xgb 首先读取训练集和测试集数据(其中${XGBOOST_PATH}代表XGBoost的根目录路径),XGBoost会将数据加载为自定义的矩阵DMatrix。数据加载完毕后,定义模型训练参数,然后对模型进行训练,训练过程的输出如图1所示。 ▲图1 训练过程输出 由图1中可以看到,XGBoost训练过程中实时输出了训练集和测试集的错误率评估结果。随着训练的进行,训练集和测试集的错误率均在不断下降,说明模型对于特征数据的学习是十分有效的。最后,模型训练完毕后,即可通过训练好的模型对测试集数据进行预测。预测代码如下:
array([ 0.10455427, 0.80366629, 0.10455427, ..., 0.89609396, 可以看到,预测结果为一个浮点数的数组,其数组大小和测试集的样本数量是一致的。数组中的值均在0~1的区间内,每个值对应一个样本。该值可以看作是模型对于该样本的预测概率,即模型认为该蘑菇是有毒蘑菇的概率。 |
|
来自: 阿明哥哥资料区 > 《53.大数据.机器学习.思维》