我们从高中就开始学正态分布,现在做数据分析、机器学习还是离不开它,那你有没有想过正态分布有什么特别之处?为什么那么多关于数据科学和机器学习的文章都围绕正态分布展开?本文作者专门写了一篇文章,试着用易于理解的方式阐明正态分布的概念。 选自Medium,作者:Farhad Malik,机器之心编译,参与:李诗萌、张倩。 机器学习的世界是以概率分布为中心的,而概率分布的核心是正态分布。本文说明了什么是正态分布,以及为什么正态分布的使用如此广泛,尤其是对数据科学家和机器学习专家来说。 我会从最基础的内容开始解释,以便读者们理解为什么正态分布如此重要。 文章结构如下:
先让我们来看一点背景知识: 1. 首先,要注意的最重要的一点是,正态分布也被称为高斯分布。 2. 它是以天才卡尔·弗里德里希·高斯(Carl Friedrich Gauss)的名字命名的。 3. 最后需要注意的是,简单的预测模型一般都是最常用的模型,因为它们易于解释,也易于理解。现在补充一点:正态分布因为简单而流行。 因此,正态概率分布很值得我们去花时间了解。 什么是概率分布? 想象我们正在自己的数据科学项目中构建感兴趣的预测模型:
概率越高,事件发生的可能性就越大。 举个例子,我们可以大量重复一个实验,并记录我们检索到的变量值,这样概率分布就会慢慢展现在我们的面前。 每次实验产生一个值,这些值可以分配到类别/桶中了。对每个桶来说,我们可以记录变量值出现在桶里的次数。例如,我们可以扔 10,000 次骰子,每次骰子会产生 6 个可能的值,我们可以创建 6 个桶。并记录每个值出现的次数。 我们可以根据这些值作图。所作曲线就是概率分布曲线,目标变量得到一个值的概率就是该变量的概率分布。 理解了值的分布方式后,就可以开始估计事件的概率了,甚至可以使用公式(概率分布函数)。因此,我们可以更好地理解它的行为。概率分布依赖于样本的矩,比如平均值、标准差、偏度及峰度。如果对所有概率求和,总和为 100%。 现实世界中存在很多概率分布,最常用的是「正态分布」。 什么是正态概率分布 如果对概率分布作图,得到一条倒钟形曲线,样本的平均值、众数以及中位数是相等的,那么该变量就是正态分布的。 这是正态分布钟形曲线的示例: 上面是一个变量的高斯分布图形,像神经网络那样上百万的参数量,每个参数都有自己独立的分布形状,还有极其恐怖的联合分布形状。这种高维联合分布就主导了不同任务的表现,因此理解和估计目标变量的概率分布是很重要的。 以下变量非常接近正态分布: 1. 人群的身高 2. 成年人的血压 3. 扩散后的粒子的位置 4. 测量误差 5. 人群的鞋码 6. 员工回家所需时间 此外,我们周围的大部分变量都呈置信度为 x% 的正态分布(x<100)。所以说,生活中经常出现的各种变量,差不多都能用高斯分布描述。 好理解的正态分布 正态分布是只依赖数据集中两个参数的分布,这两个参数分别是:样本的平均值和标准差。
分布的这一特性让统计人员省事不少,因此预测任何呈正态分布的变量准确率通常都很高。值得注意的是,一旦你研究过自然界中大多数变量的概率分布,你会发现它们都大致遵循正态分布。 正态分布很好解释。因为: 1. 分布的均值、众数和中位数是相等的; 2. 我们只要用平均值和标准差就可以解释整个分布。 为什么这么多变量近似正态分布? 为什么样本一多,那么总会有一堆样本都非常普通?这个想法背后有这样一个定理:你在大量随机变量上多次重复一个实验时,它们的分布总和将非常接近正态性(normality)。 人的身高是一个基于其他随机变量(比如一个人所消耗的营养量、他们居住的环境以及他们的基因等)的随机变量,这些随机变量的分布总和最终是非常接近正态的。这就是中心极限定理。 我们从前文了解到,正态分布是许多随机分布的和。如果我们对正态分布密度函数作图,那所作曲线有如下特性: 这个钟形曲线平均值为 100,标准差为 1。
上图介绍了非常出名的 3σ原则,即:
这样我们就可以轻松地估计出变量的波动性,还可以给出一个置信水平,估计它可能取的值是多少。例如,在上面的灰色钟型曲线中,变量值出现在 101~99 之间的概率约为 68.2%。想象一下,当你根据这样的信息做决定时,你的信心有多充足。 概率分布函数 正态分布的概率密度函数是: 概率密度函数本质上是连续随机变量取某些值的概率。例如想知道变量出现在 0 到 1 之间,它的概率就能通过概率密度函数求出。
如何用 Python 找出特征分布? 我用过的最简单的方法是在 Pandas 的 DataFrame 中加载所有特征,然后直接调用它的方法找出特征的概率分布: 这里的 bins 表示分布的柱状数量。当然上面并不是一个正态分布,那么当变量满足正态分布时,它意味着什么? 这意味着,如果你把大量分布不同的随机变量加在一起,你的新变量最终也服从正态分布,这就是中心极限定理的魅力。此外,服从正态分布的变量会一直服从正态分布。举个例子,如果 A 和 B 是两个服从正态分布的变量,那么:
变量还是乖乖地变成正态分布吧 如果样本满足某个未知的分布,那么通过一系列操作,它总是能变成正态分布。相反,标准正态分布的叠加与转换,也一定能变化为任意未知分布。从标准正态转换到未知分布,就是很多机器学习模型希望做到的,不论是视觉中的 VAE 或 GAN,还是其它领域的模型。 但对于传统统计学,我们更希望将特征的分布转换成正态分布,因为正态分布简单又好算呀。下面展示了几种转换为标准正态的方法,像相信变换什么的,在高中都有学过。 1. 线性变换 我们收集到作为变量的样本后,就可以用下面的公式对样本做线性变换,从而计算出
用下式根据每一个值 x 计算出 Z 以前 x 可能服从某个未知分布,但是归一化后的 Z 是服从正态分布的。嗯,这就是做批量归一化或其它归一化的好处吧。 2.Box-cox 变换 你可以用 Python 的 SciPy 包将数据转换成正态分布: scipy.stats.boxcox(x, lmbda=None, alpha=None) 3.YEO-JOHBSON 变换 此外,也可以用强大的 yeo-johnson 变换。Python 的 sci-kit learn 提供了合适的函数:
最后,非常重要的一点是,在没有做任何分析的情况下假设变量服从正态分布是很不明智的。 以遵循泊松分布(Poisson distribution)、t 分布(student-t 分布)或二项分布(Binomial distribution)的样本为例,如果错误地假设变量服从正态分布可能会得到错误的结果。 原文链接:https:///fintechexplained/ever-wondered-why-normal-distribution-is-so-important-110a482abee3 |
|