分享

线性回归、逻辑回归

 印度阿三17 2020-05-04

线性回归

(1)目标

  预测函数:

    

  即 

  学得w和b后,模型就可以确定。

(2)一维情形

  先假设输入特征只有一维。

  

  使用均方差当做损失函数,最小化均方差,也就是最小二乘法。

     

    求最小化均方差时的w和b,分别对上式w和b求导,使导数为0,即得到所求w*和b*。

    

    

  

(3)推广到多维

  现在考虑多维特征。

    

  把数据集D表示为一个矩阵X:

    

   此时,使用最小二乘法:

    

  令导数为0,解得:

  实际计算中求以上矩阵计算量很大,因此常使用梯度下降法。二维情况下,函数变换最快的方向是斜率方向,多维情况下偏导就成为梯度,每次往负梯度方向走一步。

    

 

逻辑回归

  逻辑回归用于分类,在线性回归的基础上使用一个函数使得预测值与标记值联系起来。该函数需要连续可微,一般使用sigmoid函数。

    

  损失函数方面,线性回归的损失函数为平方损失函数,如果将其用于逻辑回归的损失函数,后续讨论的优化问题会变成非凸的,难以用梯度下降法求最优。因此逻辑回归使用负对数似然函数(交叉熵),它表示两个概率模型之间的相似度。

     

   推导使用极大似然法,我们要得到w和b,最大化它的似然函数,以w为例:

    

  其中,f(x)在sigmoid之后就是代表概率,因此:

            

  所以 

  代入 L(w) 得:

    

  对 L(w) 取对数得到对数似然函数(是因为(0,1)的小数连乘容易下溢导致结果为0):

     

  我们要最大化 l(w),相当于最小化负 l(w),即它的损失函数。

  这个损失函数是高阶可导连续的凸函数,根据凸优化理论可以通过梯度下降法、牛顿法等方法求得最优解。

 

来源:https://www./content-4-688651.html

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多