分享

统计学杂记 6:“建立统计模型“犹如“制定治国方针”

 萨拉丁123 2018-02-10


《社工统计学杂记 6》

6

建模型极大极小极睿智

穷规律亦真亦幻亦科学


统计学的核心任务是建立统计模型。通常我们运用搜集到的样本数据,根据课题的需要以及由理论导引的研究假设建立一个统计模型,然后用模型的参数检验假设。所有统计模型都根据研究问题的需要而建立,包括回归模型、时间序列分析、地理空间模型、方差分析、多元方差分析、结构方程模型、倾向值模型,等等。每一模型的最终产品是模型的参数,即在样本观察到的数据基础上估算出来的一系列统计量。

那末,这些统计参数是怎样估算出来的?

这里,统计学使用的无外乎两种方法:极小法与极大法。要使得估算的统计参数最优化,我们搜寻这一组参数,使得样本总体的误差最小,或者再造样本的概率最大。前者通常用于连续因变量的模型,称为“最小二乘法(Least Square Method)”;后者用于非线性因变量模型,称为“最大或然率法(The Maximum Likelihood Method)”。无论哪种方法,统计学都使用微积分的“偏导”来估算,它是建立在严格数学理论的基础上的。

每一样本观察到的因变量值与模型参数预测出的因变量值的差异称为“误差”。最小二乘法估算出的模型参数被认为最优,因为它是在样本误差的平方和的一阶导数等于零的情况下计算出来的,唯有使用这一组参数,样本总体的误差才能到达最小。所以,这一组参数最优。

同理,我们可以将再造样本的概率表示为观察到的数据与模型待定参数的函数,称为“或然率函数”(Likelihood Function)。在这个函数的右边,我们有观察到的数据和模型待定的参数。其中,待定参数是未知量。由于等式的右边只有待定系数未知,此时只要给定这些参数的值,我们就可计算出或然率函数。任何给定的参数值或“猜测值”都对应一个或然率函数,这个函数一开始并不是最优的(最大)。我们用迭代(iteration)的方法,每次试用一组参数,计算出或然率函数;然后将这一次试用参数所对应的或然率与前一次参数对应的或然率比较,看它是大了还是小了。经过反复迭代,最终找出对应于最大或然率的一组参数。这组参数在所有可能的参数中最优。为什么?因为唯有使用这一组参数,再造样本的概率才是最大,也是最好的。这个方法被称为最大或然率法

 “最大或然率法”是整个现代统计学最主要的估算方法,因为它是用来解决非线性模型的,而非线性模型是所有现代统计模型的主流。最大或然率法使用的是“牛顿-拉普逊迭代法”(Newton- Raphson Iterative Method)。它是牛顿在17世纪提出的一种近似求解方程的方法,在统计学中的应用归功于费雪,称为“费雪打分法”(Fisher Scoring)。或然率函数在实际应用中可以变得异常复杂,求出它的精确根非常困难,甚至不可能。为了在迭代过程中尽快逼近真正的最大或然率(专业术语称作“收敛”(convergence ),牛顿-拉普逊迭代法或费雪打分法先计算或然率在给定参数下的一阶偏导(称为“梯度向量”Gradient Vector)和二阶偏导(称为“黑氏矩阵”Hessian Matrix),然后用梯度向量和黑氏矩阵计算出“方向向量”(Direction Vector) 和“步伐规模”(Stepsize)。有了方向向量和步伐规模,我们就可以很快逼近真正的最大或然率了,也就是说,可以找到对应于最大或然率的一组最优统计参数了。

最大或然率法用到微积分的一阶二阶偏导,在实际应用中似乎异常神奇,亦真亦幻,有些不可捉摸,但是它的核心思想却十分简单,即在搜寻最大或然率的过程中,抓住两个关键:方向和步伐。我们寻找一组最优参数使得或然率最大,应当从哪个方向来逼近?方向确定后,使用多大的步伐规模?这是一个十分深刻的思想。

任何决策任务,要解决的核心问题无非就是方向和步伐。首先,我们要确定向何处走,向东还是向西;方向决定后,还要确定用多大的步伐规模去到达目的。抓住这两个关键,一切决策的困难都迎刃而解了。古往今来,圣明君主、睿智宰相、呼风唤雨的CEO,要解决的也就是这两个关键问题。所谓“治大国若烹小鲜”,将治理国家这样一个何其重要的任务变得同烹饪一样潇洒和自如,何以做到?我想,他们应对的关键也就是方向和步伐。值得感叹的是:数学和统计学将这两个任务用精确的数学语言和程序表述出来了;这一贡献,并不是社会科学家做出的,尽管他们的文章可以用洋洋万言来阐述方向和步伐的重要性。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多