前言概率论学科定义概率论是用于表示不确定性声明的数学框架。它不仅提供了量化不确定性的方法,也提供了用于导出新的不确定性声明(statement)的公理。概率论的知识在机器学习和深度学习领域都有广泛应用,是学习这两门学科的基础。 概率与信息论在人工智能领域的应用在人工智能领域,概率论主要有两种用途。
虽然概率论允许我们在存在不确定性的情况下做出不确定的陈述和推理,但信息论允许我们量化概率分布中不确定性的数量。 3.1,为什么要使用概率论这是因为机器学习必须始终处理不确定的量,有时可能还需要处理随机(非确定性)的量,这里的不确定性和随机性可能来自多个方面。而使用使用概率论来量化不确定性的论据,是来源于 20 世纪 80 年代的 Pearl (1988) 的工作。 不确定性有三种可能的来源:
3.2,随机变量随机变量(random variable)是可以随机地取不同值的变量,它可以是离散或者连续的。 离散随机变量拥有有限或者可数无限多的状态。注意这些状态不一定非要是整数; 它们也可能只是一些被命名的状态而没有数值。连续随机变量伴随着实数值。注意,随机变量只是对可能状态的描述;它必须与指定这些状态中的每一个的可能性的概率分布相结合。 我们通常用无格式字体 (plain typeface) 中的小写字母来表示随机变量本身,而用手写体中的小写字母来表示随机变量能够取到的值。例如, x_1x1 和 x_2x2 都是随机变量 \textrm{x}x 可能的取值。对于向量值变量,我们会将随机变量写成 \mathbf{x}x,它的一个可能取值为 \boldsymbol{x}x。
3.3,概率分布概率分布(probability distribution)是用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小。 如果狭义地讲,它是指随机变量的概率分布函数。具有相同概率分布函数的随机变量一定是相同分布的。连续型和离散型随机变量的概率分布描述方式是不同的。 3.3.1,离散型变量和概率质量函数离散型变量的概率分布可以用概率质量函数(probability mass function, PMF,也称概率密度函数)来描述。我们通常用大写字母 PP 来表示概率质量函数,用 \textrm{x} \sim P(\textrm{x})x∼P(x) 表示随机变量 \textrm{x}x 遵循的分布。 虽然通常每一个随机变量都会有一个不同的概率质量函数,但是概率质量函数也可以同时作用于多个随机变量,这种多个变量的概率分布被称为联合概率分布(joint probability distribution)。 P(\textrm{x} = x, \textrm{y} = y)P(x=x,y=y) 表示 \textrm{x} = xx=x 和 \textrm{y} = yy=y 同时发生的概率,有时也可简写为 P(x,y)P(x,y)。 如果一个函数 PP 是随机变量 \textrm{x}x 的 PMF,必须满足以下条件:
常见的离散概率分布族有:
3.3.2,连续型变量和概率密度分布函数连续型随机变量的概率分布可以用概率密度函数(probability desity function, PDF)来描述。 通常用小写字母 pp 来表示随机变量 \textrm{x}x 的概率密度函数 PDF,其必须满足以下条件:
概率密度函数 p(x)p(x) 给出的是落在面积为 \delta xδx 的无限小的区域内的概率为 p(x)\delta xp(x)δx。 因此,我们可以对概率密度函数求积分来获得点集的真实概率质量。特别地,xx 落在集合 \mathbb{S}S 中的概率可以通过 p(x)p(x) 对这个集合求积分来得到。在单变量的例子中,xx 落在区间 [a,b][a,b] 的概率是 \int_{[a,b]}p(x)dx∫[a,b]p(x)dx。 常见的连续概率分布族有:
3.4,边缘概率
有时候,我们知道了一组变量的联合概率分布,但想要了解其中一个子集的概率分布。这种定义在子集上的概率分布被称为边缘概率分布(marginal probability distribution)。 对于离散型随机变量 \textrm{x}x 和 \textrm{y}y,知道 P(\textrm{x}, \textrm{y})P(x,y),可以依据下面的求和法则(sum rule)来计算边缘概率 P(\textrm{x})P(x): \forall x \in \textrm{x},P(\textrm{x}=x)=\sum_{y}P(\textrm{x}=x, \textrm{y}=y)∀x∈x,P(x=x)=∑yP(x=x,y=y) “边缘概率”的名称来源于手算边缘概率的计算过程。当 P(x,y)P(x,y) 的每个值被写在由每行表示不同的 xx 值,每列表示不同的 yy 值形成的网格中时,对网格中的每行求和是很自然的事情,然后将求和的结果 P(x)P(x) 写在每行右边的纸的边缘处。 连续性变量的边缘概率则用积分代替求和: p(x) = \int p(x,y)dyp(x)=∫p(x,y)dy 3.5,条件概率条件概率(conditional probability)就是事件 A 在事件 B 发生的条件下发生的概率,表示为 P(A|B)P(A∣B)。 设 AA 与 BB 为样本空间 Ω 中的两个事件,其中 P(B)P(B) > 0。那么在事件 BB 发生的条件下,事件 AA 发生的条件概率为: P(A|B)={\frac {P(A\cap B)}{P(B)}}P(A∣B)=P(B)P(A∩B)
3.5.1,条件概率的链式法则任何多维随机变量的联合概率分布,都可以分解成只有一个变量的条件概率相乘的形式,这个规则被称为概率的链式法则(chain rule)。条件概率的链式法则如下: \begin{aligned} P(a,b,c) &= P(a|b,c)P(b,c) \\ P(b,c) &= P(b|c)P(c) \\ P(a,b,c) &= P(s|b,c)P(b|c)P(c) \\ \end{aligned}P(a,b,c)P(b,c)P(a,b,c)=P(a∣b,c)P(b,c)=P(b∣c)P(c)=P(s∣b,c)P(b∣c)P(c) 3.6,独立性和条件独立性两个随机变量 \textrm{x}x 和 \textrm{y}y,如果它们的概率分布可以表示成两个因子的乘积形式,并且一个因子只包含 \textrm{x}x 另一个因子只包含 \textrm{y}y,我们就称这两个随机变量是相互独立的(independent): \forall x \in \textrm{x},y \in \textrm{y},p(\textrm{x}=x, \textrm{y}=y)=p(\textrm{x}=x)\cdot p(\textrm{y}=y)∀x∈x,y∈y,p(x=x,y=y)=p(x=x)⋅p(y=y) 两个相互独立的随机变量同时发生的概率可以通过各自发生的概率的乘积得到。 如果关于 xx 和 yy 的条件概率分布对于 zz 的每一个值都可以写成乘积的形式,那么这两个随机变量 xx 和 yy 在给定随机变量 zz 时是条件独立的(conditionally independent): \forall x \in ,y \in \textrm{y},z \in \textrm{z}, p(\textrm{x}=x, \textrm{y}=y|z \in \textrm{z})= p(\textrm{x}=x|z \in \textrm{z})\cdot p(\textrm{y}=y|z \in \textrm{z})∀x∈,y∈y,z∈z,p(x=x,y=y∣z∈z)=p(x=x∣z∈z)⋅p(y=y∣z∈z) 采用一种简化形式来表示独立性和条件独立性: \textrm{x}\perp \textrm{y}x⊥y 表示 \textrm{x}x 和 \textrm{y}y 相互独立,\textrm{x}\perp \textrm{y}|\textrm{z}x⊥y∣z 表示 \textrm{x}x 和 \textrm{y}y 在给定 \textrm{z}z 时条件独立。 3.7,条件概率、联合概率和边缘概率总结
3.8,期望、方差和协方差
在概率分布中,期望值和方差或标准差是一种分布的重要特征,期望、数学期望、均值都是一个意思。统计中的方差(样本方差)是每个样本值与全体样本值的平均数之差的平方值的平均数,其意义和概率分布中的方差是不一样的。 3.8.1,期望在概率论和统计学中,一个离散性随机变量的期望值(或数学期望,亦简称期望,物理学中称为期待值)是试验中每次可能的结果乘以其结果概率的总和。换句话说,期望值像是随机试验在同样的机会下重复多次,所有那些可能状态平均的结果,也可理解为该变量输出值的加权平均。 期望数学定义如果 XX 是在概率空间 (\Omega ,F,P)(Ω,F,P) 中的随机变量,那么它的期望值 \operatorname{E}(X)E(X) 的定义是: \operatorname {E}(X)=\int_{\Omega }X {d}PE(X)=∫ΩXdP 并不是每一个随机变量都有期望值的,因为有的时候上述积分不存在。如果两个随机变量的分布相同,则它们的期望值也相同。 1,如果 XX 是离散的随机变量,输出值为 x_{1},x_{2},\ldots x_{1},x_{2},\ldotsx1,x2,…x1,x2,…,和输出值相应的概率为 {\displaystyle p_{1},p_{2},\ldots }p_{1},p_{2},\ldotsp1,p2,…p1,p2,…(概率和为 1)。 若级数 \sum_{i}p_{i}x_{i}∑ipixi 绝对收敛,那么期望值 \operatorname {E}(X)E(X) 是一个无限数列的和。 \operatorname {E}(X)=\sum_{i}p_{i}x_{i}E(X)=∑ipixi 2,如果 XX 是连续的随机变量,且存在一个相应的概率密度函数 f(x)f(x),若积分 \int _{-\infty }^{\infty }xf(x)\,\mathrm {d} x∫−∞∞xf(x)dx 绝对收敛,那么 XX 的期望值可以计算为: \operatorname {E} (X)=\int _{-\infty }^{\infty }xf(x)\,\mathrm {d} xE(X)=∫−∞∞xf(x)dx 虽然是针对于连续的随机变量的,但与离散随机变量的期望值的计算算法却同出一辙,由于输出值是连续的,所以只是把求和改成了积分。 期望值 EE 是线性函数: \operatorname {E}(aX+bY)=a\operatorname {E}(X)+b\operatorname {E}(Y)E(aX+bY)=aE(X)+bE(Y) XX 和 YY 为在同一概率空间的两个随机变量(可以独立或者非独立),aa 和 bb 为任意实数。
期望应用
总体均值数学定义一般而言,一个有限的容量为 NN、元素的值为 x_{i}xi 的总体的总体均值为: \mu = \frac{\sum_i^N x_{i}}{N}μ=N∑iNxi 3.8.2,方差在概率论和统计学中,方差(英语:variance)又称变异数、变方,描述的是一个随机变量的离散程度,即该变量离其期望值的距离,是随机变量与其总体均值或样本均值的离差的平方的期望值。 方差差是标准差的平方、分布的二阶矩,以及随机变量与其自身的协方差,其常用的符号表示有 \sigma^2σ2、s^2s2、\operatorname {Var} (X)Var(X)、\displaystyle V(X)V(X),以及 \displaystyle \mathbb {V} (X)V(X)。 方差作为离散度量的优点是,它比其他离散度量(如平均差)更易于代数运算,但缺点是它与随机变量的单位不同,而标准差则单位相同,这就是计算完成后通常采用标准差来衡量离散程度的原因。
有两个不同的概念都被称为“方差”。一种如上所述,是理论概率分布的方差。而另一种方差是一组观测值的特征,分别是总体方差(所有可能的观测)和样本方差(总体的一个子集)。 方差数学定义设 XX 为服从分布 FF 的随机变量,如果 \operatorname{E}[X]E[X] 是随机变量 XX 的期望值(均值 \mu=\operatorname{E}[X]μ=E[X]),则随机变量 XX 或者分布 FF 的方差为 XX 的离差平方的期望值: \operatorname{E}(X) = \operatorname{E}[(X - \mu)]^2 = \operatorname{E}[X - \operatorname{E}(X)]^2E(X)=E[(X−μ)]2=E[X−E(X)]2 方差的表达式可展开如下: \begin{aligned} \operatorname{Var}(X) &=\operatorname{E} \left[(X-\operatorname {E} [X])^{2}\right] \\ &=\operatorname{E} \left[X^{2}-2X\operatorname {E} [X]+\operatorname{E}[X]^{2}\right] \\ &=\operatorname{E} \left[X^{2}\right]-2\operatorname{E}[X]\operatorname{E}[X]+\operatorname{E}[X]^{2} \\ &=\operatorname{E} \left[X^{2}\right]-\operatorname{E}[X]^{2} \\ \end{aligned}Var(X)=E[(X−E[X])2]=E[X2−2XE[X]+E[X]2]=E[X2]−2E[X]E[X]+E[X]2=E[X2]−E[X]2 也就是说,XX 的方差等于 XX 平方的均值减去 XX 均值的平方。 总体方差数学定义一般而言,一个有限的容量为 NN、元素的值为 x_{i}xi 的总体的总体方差为: \sigma^{2} = {\frac {1}{N}}\sum _{i=1}^{N}\left(x_{i}-\mu \right)^{2}σ2=N1∑i=1N(xi−μ)2
3.8.3,期望与方差的运算性质期望与方差运算性质如下:
3.8.4,协方差协方差也叫共变异数(英语:Covariance),在概率论与统计学中用于衡量两个随机变量的联合变化程度。 协方差数学定义期望值分别为 \operatorname E(X)=\muE(X)=μ 与 \operatorname E(Y)=\nuE(Y)=ν 的两个具有有限二阶矩的实数随机变量 XX 与 YY 之间的协方差定义为: \operatorname {cov} (X,Y)=\operatorname {E} ((X-\mu )(Y-\nu ))=\operatorname {E} (X\cdot Y)-\mu \nucov(X,Y)=E((X−μ)(Y−ν))=E(X⋅Y)−μν 协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 协方差的绝对值如果很大则意味着变量值变化很大并且它们同时距离各自的均值很 远。如果协方差是正的,那么两个变量都倾向于同时取得相对较大的值。如果协方 差是负的,那么其中一个变量倾向于取得相对较大的值的同时,另一个变量倾向于 取得相对较小的值,反之亦然。其他的衡量指标如 相关系数(correlation)将每个变 量的贡献归一化,为了只衡量变量的相关性而不受各个变量尺度大小的影响。 3.9,常用概率分布下表列出了一些常用概率分布的方差。 3.9.1,伯努利分布伯努利分布(英语:Bernoulli distribution),又名两点分布或者 0-1 分布,是一个离散型概率分布,为纪念瑞士科学家雅各布·伯努利而命名。若伯努利试验成功,则伯努利随机变量取值为 1。若伯努利试验失败,则伯努利随机变量取值为 0。记其成功概率为 0\leq p\leq 10≤p≤1,失败概率为 q = 1-pq=1−p。其有如下性质:
f_{X}(x) = p^{x}(1-p)^{1-x} = \left\lbrace\begin{matrix} p \quad if \;x = 1 \\ 1-p \quad if \; x = 0 \end{matrix}\right.fX(x)=px(1−p)1−x={pifx=11−pifx=0
\operatorname {E} [X] = \sum_{i=0}^{1} x_{i}f_X(x) = 0 + p = pE[X]=i=0∑1xifX(x)=0+p=p
\begin{aligned} Var[X] &= \sum_{i=0}^{1} (x_{i}-\operatorname {E} [X])^2f_{X}(x) \\ &= (0-P)^2(1-P) + (1-P)^2P \\ &= p(1-p) \\ &= p\cdot q \\ \end{aligned}Var[X]=i=0∑1(xi−E[X])2fX(x)=(0−P)2(1−P)+(1−P)2P=p(1−p)=p⋅q 3.9.2,Multinoulli 分布Multinoulli 分布(多项式分布,也叫范畴分布 categorical dis- tribution)是一种离散概率分布,它描述了随机变量的可能结果,该随机变量可以采用 kk 个可能类别之一,概率为每个类别分别指定,其中 kk 是一个有限值。 3.9.3,高斯分布
高斯分布 Gaussian distribution(也称正态分布 Normal distribution)是一个非常常见的连续概率分布。高斯分布在统计学上十分重要,经常用在自然和社会科学来代表一个不确定的随机变量。 若随机变量 XX 服从一个位置参数为 \muμ 、尺度参数为 \sigmaσ 的正态分布,记为: X \sim N(\mu,\sigma^2)X∼N(μ,σ2) 则其概率密度函数为 f(x;\mu, \sigma) = \frac {1}{\sigma {\sqrt {2\pi }}}\;e^{-{\frac {\left(x-\mu \right)^{2}}{2\sigma ^{2}}}}f(x;μ,σ)=σ2π1e−2σ2(x−μ)2。 正态分布的数学期望值 \muμ 等于位置参数,决定了分布的位置;其方差 \sigma^2σ2 的开平方或标准差 \sigmaσ 等于尺度参数,决定了分布的幅度。 正态分布概率密度函数曲线呈钟形,也称之为钟形曲线(类似于寺庙里的大钟,因此得名)。我们通常所说的标准常态分布是位置参数 \mu = 0μ=0,尺度参数 \sigma ^{2} = 1σ2=1 的正态分布(见右图中红色曲线)。 采用正态分布在很多应用中都是一个明智的选择。当我们由于缺乏关于某个实 数上分布的先验知识而不知道该选择怎样的形式时,正态分布是默认的比较好的选择,其中有两个原因。
3.9.4,指数分布和 Laplace 分布在概率论和统计学中,指数分布(Exponential distribution)是一种连续概率分布,表示一个在 x = 0x=0 点处取得边界点 (sharp point) 的分布,其使用指示函数(indicator function) 1_{x\geq0}1x≥0 来使得当 xx 取负值时的概率为零。指数分布可以等同于形状母数 \alphaα为 11的伽玛分布。 指数分布可以用来表示独立随机事件发生的时间间隔,比如旅客进入机场的时间间隔、电话打进客服中心的时间间隔等。 若随机变量 XX 服从母数为 \lambdaλ 或 \betaβ 的指数分布,则记作 X\sim {\text{Exp}}(\lambda )X∼Exp(λ) 或 X\sim {\text{Exp}}(\beta )X∼Exp(β) 两者意义相同,只是 \lambdaλ 与 \betaβ 互为倒数关系。指数分布的概率密度函数为: f(x;{\color {Red}\lambda })=\left\lbrace{\begin{matrix}{\color {Red}\lambda }e^{-{\color {Red}\lambda }x}&x\geq 0,\\0&,\;x<0.\end{matrix}}\right.f(x;λ)={λe−λx0x≥0,,x<0. 指数分配概率密度函数曲线如下所示。 3.10,常用函数的有用性质深度学习中的概率分布有一些经常出现的函数,比如 logistic sigmoid 函数: \sigma(x) = \frac{1}{1+exp(-x)}σ(x)=1+exp(−x)1 logistic sigmoid 函数通常用来产生伯努利分布的参数 pp,因为它的范围是 (0, 1)(0,1),位于 pp 参数值的有效范围内。下图 3.3 给出了 sigmoid 函数的图示。从图中可以明显看出,sigmoid 函数在变量取绝对值非常大的正值或负值时会出现饱和(saturate)现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。 sigmoid 函数的一些性质在后续学习 BP 算法等内容时会很有用,我们需要牢记: \begin{aligned} \sigma(x) &= \frac{exp(x)}{exp(x)+exp(0)} \\ \frac{d}{dx}\sigma(x) &= \sigma(x)(1 - \sigma(x)) \\ 1 - \sigma(x) &= \sigma(-x) \\ \end{aligned}σ(x)dxdσ(x)1−σ(x)=exp(x)+exp(0)exp(x)=σ(x)(1−σ(x))=σ(−x) 3.11,贝叶斯定理
贝叶斯定理(英语:Bayes' theorem)是概率论中的一个定理,描述在已知一些条件下,某事件的发生概率。比如,如果已知某种健康问题与寿命有关,使用贝叶斯定理则可以通过得知某人年龄,来更加准确地计算出某人有某种健康问题的概率。 通常,事件 A 在事件 B 已发生的条件下发生的概率,与事件 B 在事件 A 已发生的条件下发生的概率是不一样的。但是,这两者是有确定的关系的,贝叶斯定理就是这种关系的陈述。贝叶斯公式的一个用途,即透过已知的三个概率而推出第四个概率。贝叶斯定理跟随机变量的条件概率以及边际概率分布有关。 作为一个普遍的原理,贝叶斯定理对于所有概率的解释是有效的。这一定理的主要应用为贝叶斯推断,是推论统计学中的一种推断法。这一定理名称来自于托马斯·贝叶斯。
3.11.1,贝叶斯定理公式贝叶斯定理是关于随机事件 A 和 B 的条件概率的一则定理。 P(A\mid B)={\frac {P(A)P(B\mid A)}{P(B)}}P(A∣B)=P(B)P(A)P(B∣A) 其中 A 以及 B 为随机事件,且 P(B)P(B) 不为零。P(A\mid B)P(A∣B) 是指在事件 B 发生的情况下事件 A 发生的概率。 在贝叶斯定理中,每个名词都有约定俗成的名称:
3.11.2,贝叶斯理论与概率密度函数贝叶斯理论亦可用于概率分布,贝叶斯理论与概率密度的关系是由求极限的方式建立: P(\textrm{x}|\textrm{y}) = \frac{P(\textrm{x})P(\textrm{y}|\textrm{x})}{P(\textrm{y})}P(x∣y)=P(y)P(x)P(y∣x) 注意到 P(y)P(y) 出现在上面的公式中,它通常使用 P(\textrm{y}) = \sum_{x} P(\textrm{y}|x)P(x)P(y)=∑xP(y∣x)P(x) 来计算所以我们并不需要事先知道 P(\textrm{y})P(y) 的信息。
3.12,连续型变量的技术细节连续型随机变量和概率密度函数的深入理解需要用到数学分支测度论(measure theory)的相关内容来扩展概率论,测度论超出了本书范畴。 原书中有测度论的简要介绍,本笔记不做记录和摘抄,感兴趣的可以阅读原书。 3.13,信息论-相对熵和交叉熵信息论是应用数学、电子学和计算机科学的一个分支,早期备用在无线通信领域。在深度学习中,主要是使用信息论的一些关键思想来表征(characterize)概率分布或者量化概率分布之间的相似性。 信息论的基本想法是一个不太可能的事件居然发生了,要比一个非常可能的事件发生,能提供更多的信息。 定义一个事件 \textrm{x} = xx=x 的自信息(self-information) 为 I(x) = -\text{log}P(x)I(x)=−logP(x) 在本文中,我们总是用 \text{log}log 来表示自然对数,其底数为 ee。因此我们定义的 I(x)I(x) 单位是奈特(nats)。一奈特是以 \frac{1}{e}e1 的概率观测到一个事件时获得的信息量。其他的材料中可能使用底数为 2 的对数,单位是比特(bit)或者香农(shannons); 通过比特度量的信息只是通过奈特度量信息的常数倍。 自信息只处理单个的输出。我们可以用香农熵(Shannon entropy)来对整个概率分布中的不确定性总量进行量化: H(P) = H(\textrm{x}) = E_{x∼P}[I(x)] = −E_{x∼P}[log P(x)]H(P)=H(x)=Ex∼P[I(x)]=−Ex∼P[logP(x)] 换句话说,一个概率分布的香农熵是指遵循这个分布的事件所产生的期望信息总量。 如果我们对于同一个随机变量 \textrm{x}x 有两个单独的概率分布 P(\textrm{x})P(x) 和 Q(\textrm{x})Q(x),则可以用 KL 散度( Kullback-Leibler (KL) divergence,也叫相对熵)来衡量这两个概率分布的差异: D_{KL}(P\parallel Q) = \mathbb{E}_{\textrm{x}\sim p}\begin{bmatrix} log \frac{P(x)}{Q(x)} \end{bmatrix} = \mathbb{E}_{\textrm{x}\sim p}[log P(x) - log Q(x)]DKL(P∥Q)=Ex∼p[logQ(x)P(x)]=Ex∼p[logP(x)−logQ(x)] KL 散度有很多有用的性质,最重要的是它是非负的。KL 散度为 0 当且仅当 PP 和 QQ 在离散型变量的情况下是相同的概率分布,或者在连续型变量的情况下是 “几乎处处” 相同的。 一个和 KL 散度密切联系的量是交叉熵(cross-entropy)H(P, Q) = H(P) + D_{KL}(P||Q)H(P,Q)=H(P)+DKL(P∣∣Q),其计算公式如下: H(P, Q) = -\mathbb{E}_{\textrm{x}\sim p}log Q(x)H(P,Q)=−Ex∼plogQ(x) 和 KL 散度相比,少了左边一项,即熵 H(P)H(P)。可以看出,最小化 KL 散度其实就是在最小化分布之间的交叉熵。
3.14,结构化概率模型略 参考资料
|
|
来自: 山峰云绕 > 《人工智能信息科学仿生等新奇技术》