分享

机器学习之逻辑回归和softmax回归及代码示例

 杉杉之园 2018-08-08

一、逻辑回归

机器学习之线性回归 中,我们可使用梯度下降的方法得到一个映射函数 hθ(X) 来去贴近样本点,这个函数是对连续值的一个预测。

而逻辑回归是解决分类问题的一个算法,我们可以通过这个算法得到一个映射函数 fXy ,其中 X 为特征向量,X={x0,x1,x2,,xn}y 为预测的结果。在逻辑回归这里,标签 y 为一个离散值。

二、判定边界

当将训练集的样本以其各个特征为坐标轴在图中进行绘制时,通常可以找到某一个 判定边界 去将样本点进行分类。例如:

线性判定边界


这里写图片描述

非线性判定边界


这里写图片描述

在图中,样本的标记类型有两种类型,一种为正样本,另一种为负样本,样本的特征 x0x1为坐标轴。根据样本的特征值,可将样本绘制在图上。

在图中,可找到某个 判定边界 来对不同标签的样本进行划分。根据这个判定边界,我们可以知道哪些样本是正样本,哪些样本为负样本。

因此我们可以通过学习得到一个方程 Eθ(X)=0 来表示 判定边界,即 判定边界 为 Eθ(X)=0 的点集。(可以看作是等高超平面

Eθ(X)=XTθ

其中 θ={θ0,θ1,θ2,...,θn} ,为保留 Eθ(X)=0 中的常数项,令特征向量 X={1,x1,x2,,xn}

为使得我们的边界可以非线性化,对于特征 xi 可以为特征的高次幂或相互的乘积。

对于位于判定边界上的样本,其特征向量 X 可使得 Eθ(X)=0 。因此,判定边界 是 满足 Eθ(X)=0 的特征向量 X 表示的点的集合。

三、二分类和sigmoid函数

在上面,可以通过找到一个判定边界来区别样本的标签,得到一个方程Eθ(X)=0 来表示判定边界。

对于 二分类问题,即样本标签的类型只有两种类型。

当样本标记的类型只有两种时,其中一类的样本点在 判定边界的一边,其会有Eθ(X)>0,而另一类的样本会在判定边界的另一边,会有 Eθ(X)<0

当样本点离 判定边界 越远时,Eθ(X) 的绝对值越大于0,这时样本的标签是某种类型的概率会很大,可能会等于1;当样本点离 判定边界 越近时,Eθ(X)的接近0,样本的标签是某种类型的概率会在0.5左右。

因此,我们可以将 Eθ(X)函数 转换 为一种概率函数,通过概率来判断样本的标签是某一种类型的概率会是多少。而这种 转换 可以使用 sigmoid函数来实现 :

g(z)=11+ez

sigmoid函数图像如下:


这里写图片描述

从sigmoid函数图像可看出:当z为0左右时,函数值为0.5左右;z越大于0时,函数值越大于0.5越收敛于1;z越小于0时,函数值越小于0.5越收敛于0。

因此,sigmoid函数可适用于在二分类问题中将 Eθ(X) 函数 转换为概率函数。

Eθ(X)>0时,样本标记的类型为某一类型的概率会大于0.5;当Eθ(X)<0时,样本标记的类型为某一类型的概率会小于0.5;当Eθ(X) 约等于 0时,样本标记的类型为某一类型的概率会在0.5左右。

在二分类问题中,可以找到逻辑回归函数hθ(X)=sigmoid( Eθ(X) ),判定边界可看作 hθ(X)=0.5 时的等高线。


这里写图片描述

这里写图片描述

四、损失函数

由上面,找到了二分类问题中的一个逻辑回归函数 这里写图片描述

在逻辑回归函数中,特征向量系数 θ 是未知的,需要从样本中学习得来的。当从样本中学习得到一个特征向量系数 θ 时,怎么知道它对应的 hθ(X) 函数的预测能力会更好?判断更准确?因此,需要一个损失函数来表示逻辑回归函数 hθ(X) 的好坏程度。

1. 定义

在二分类问题中,若用 hθ(X) 的值 表示正样本的概率,且 hθ(X)(0,1),需要的损失函数应该是这样的:

  1. 当样本标签的类型是正类型时,若该样本对应的 hθ(X) 值为1时,即为正类型的概率为1,这时候损失函数值应为0;若该样本对应的 hθ(X) 值为0.0001时,即为正样本的概率为0.0001,这时候损失函数值应该是一个很大的值。

  2. 当样本标记的类型是负类型时,若该样本对应的 hθ(X) 值为0时,即为正样本的概率为0,这时损失函数值应为0;若该样本对应的 hθ(X) 值为0.9999时,即为正样本的概率为0.9999,这时候损失函数值应该是一个很大的值。

因此二分类问题中,为满足这种需求,对于单个样本来说,其损失函数可以表示为:

hθ(X) 的值表示正样本的概率)

这里写图片描述

其中 y = 1 表示样本为正样本,y = 0 表示样本为负样本。

结合起来的写法:

这里写图片描述

上式的代价函数也称作:交叉熵代价函数

对于训练集所有样本来说,共同造成的损失函数的均值 Jθ(X) 可以表示为:

这里写图片描述

将 Cost函数 代入 Jθ(X) 中:

这里写图片描述

对于样本来说,其标记y为1 (正样本)或为 0(负样本),对于预测概率函数 hθ(X) 来说,预测到样本为正样本的概率值在0到1之间。

2. 极大似然估计

上述的损失函数 Jθ(X) 也可以通过极大似然估计来求得:以 hθ(X) 的值 表示正样本的概率,且以 y = 1 表示 正样本 ,y = 0 表示 负样本,则有:

P(y=1|x;θ)=hθ(x)P(y=0|x;θ)=1hθ(x)

合并上述两个式子则有:

p(y | x;θ)=(hθ(x))y(1hθ(x))1y

对m个样本,求极大似然估计:

L(θ)=i=1mp(yi|xi;θ)=i=1m(hθ(xi))yi(1hθ(xi))1yi

取对数似然估计:

l(θ)=logL(θ)=i=1myiloghθ(xi)+(1yi)log(1hθ(xi))

hθ(X)=11+eXTθ

对数似然取极值(极大值)时的 θ 取值便是我们想要的,因此需要对目标函数 l(θ) 进行最大化,即相当于 对 上述的 J(θ) 进行最小化:l(θ)=J(θ)

3. 正则化

同时,当预测概率函数 hθ(X) 过拟合,会导致高次项的特征向量系数 θi 过大(因为为 Eθ(X)=0 分清每个样本点的类型时会使得它足够的扭曲,这种扭曲通常由高次项的特征向量系数造成)。因此,为防止过拟合可以添加正则化项,即在损失函数的后面加个“尾巴”。

添加L2正则化项后的损失函数表示为:

这里写图片描述

五、最小化损失函数

在上面得到了 二分类问题 的逻辑回归的损失函数 Jθ(X) 。为达到不错的分类效果,需要对损失函数进行最小化。

线性回归 相类似的是,这里的损失函数也是一个凸函数,因此,可以通过梯度下降法来得到合适的特性系数向量Θ。

这里写图片描述

同样,上式中的a为学习率(下山步长)。将上式的偏导展开,可得:

非正则化的损失函数的偏导:

这里写图片描述

含正则化项的损失函数的偏导:

这里写图片描述

其中 λ 为正则化的强度。

同线性回归般,可以通过学习率a对特征系数向量中的元素不断进行迭代,直到元素值收敛到某一值即可,这时可以得到损失函数较小时的特征向量系数Θ。

六、从二分类过渡到多分类

在上面,我们主要使用逻辑回归解决二分类的问题,那对于多分类的问题,也可以用逻辑回归来解决?

1. one vs rest

由于概率函数 hΘ(X) 所表示的是样本标记为某一类型的概率,但可以将一对一(二分类)扩展为一对多(one vs rest):

  1. 将类型class1看作正样本,其他类型全部看作负样本,然后我们就可以得到样本标记类型为该类型的概率p1;

  2. 然后再将另外类型class2看作正样本,其他类型全部看作负样本,同理得到p2;

  3. 以此循环,我们可以得到该待预测样本的标记类型分别为类型class i时的概率pi,最后我们取pi中最大的那个概率对应的样本标记类型作为我们的待预测样本类型。

2. softmax函数

使用softmax函数构造模型解决多分类问题。

softmax回归分类器需要学习的函数为 :

这里写图片描述

其中 k 个 类别的个数 ,这里写图片描述这里写图片描述 为 第 i 个 类别对应的 权重向量 和 偏移标量。

其中 这里写图片描述 可看作样本 X 的标签 为 第 j 个 类别的概率,且有 这里写图片描述

logistic回归 不同的是,softmax回归分类模型会有多个的输出,且输出个数 与 类别个数 相等,输出为样本 X 为各个类别的概率 ,最后对样本进行预测的类型为 概率最高 的那个类别。

我们需要通过学习得到 这里写图片描述这里写图片描述 ,因此建立目标损失函数为:

这里写图片描述

上式的代价函数也称作:对数似然代价函数

在二分类的情况下,对数似然代价函数 可以转化为 交叉熵代价函数。

其中 m 为训练集样本的个数,k 为 类别的个数,这里写图片描述 为示性函数,当 这里写图片描述 为真时,函数值为 1 ,否则为 0 ,即 样本类别正确时,函数值才为 1 。

利用 对数的性质 log(ab)=log(a)log(b),将 损失函数 展开有:

这里写图片描述

继续展开:

这里写图片描述

通过 梯度下降法 最小化损失函数 和 链式偏导,使用 这里写图片描述这里写图片描述 求偏导:

这里写图片描述

化简可得:

这里写图片描述

再次化简可有:

这里写图片描述

因此由 梯度下降法 进行迭代:

这里写图片描述

同理 通过梯度下降法最小化损失函数也可以得到 这里写图片描述 的最优值。

同逻辑回归一样,可以给损失函数加上正则化项。

3. 选择的方案

当标签类别之间是互斥时,适合选择softmax回归分类器 ;当标签类别之间不完全互斥时,适合选择建立多个独立的logistic回归分类器。

4. tensorflow代码示例:

  • 使用softmax回归对sklearn中的digit手写数据进行分类

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约