关于信息熵及信源熵率
摘 要: 熵与温度、压力、焓等一样,也是反映物质内部状态的一个物理量。它不能直接用仪表测量,只能推算出来,所以比较抽象。在作理论分析时,有时用熵的概念比较方便。该文指出了如何用统计物理的方法计算随机过程的多重分形维,以二态隐马尔可夫信源作为例子,该文计算了其熵率。计算结果和理论结果的比较表明,用统计物理的方法计算隐马尔可夫过程熵率具有实用价值。这一方法可以推广到一般信源熵率的数值计算。从数学模型的角度来说,信源和随机过程有着一一对应的关系。 关键词: 熵;信源;熵率;多重分形谱;隐马尔可夫过程 引言 在自然界发生的许多过程中,有的过程朝一个方向可以自发地进行,而反之则不行。例如,一个容器的两边装有温度、压力相同的两种气体,在将中间的隔板抽开后,两种气体会自发地均匀混合,但是,要将它们分离则必须消耗功。混合前后虽然温度、压力不变,但是两种状态是不同的,单用温度与压力不能说明它的状态。两个温度不同的物体相互接触时,高温物体会自发地将热传给低温物体,最后两个物体温度达到相等。但是,相反的过程不会自发地发生。上述现象说明,自然界发生的一些过程是有一定的方向性的,这种过程叫不可逆过程。过程前后的两个状态是不等价的。用什么物理量来度量这种不等价性呢?通过研究,找到了“熵”这个物理量。 熵的概念最初是由R.J.克劳修斯在19世纪中叶建立的,1870年,玻耳兹曼给出了熵的统计解释。熵概念对于初学者,一直是一个较抽象并难以通俗表达的物理概念。但是,近40年来,熵的概念有了迅速而广泛的发展。在天体物理中,黑洞的熵与面积这样的几何概念有联系;在信息论中,信息的熵与信息量的概念有联系,并且出现负熵的概念;在生物学中,生命现象也与熵有着密切关系。此外,由普利高津和哈肯建立的非平衡态统计耗散结构理论及协同学理论,使人们对熵规律有了更新的认识,在无序中产生有序机制的出现,使得熵在许多方面都显示出它的重要性。信源输出信号在数学中可以用随机过程加以描述,因此,可以说信源的建模在某种程度上也就是用恰当的随机过程来描述信号。从复杂性科学的角度来说,熵率只是非线性系统多重分形谱中特殊的一维,即信息维。因此熵率的计算完全可以用统计物理的方法加以解决。多重分形可以分为规则分形和不规则分形。规则多重分形可以用解析方法或统计物理的方法得到它们的多重分形谱,不规则多重分形谱只能用统计物理的方法得出。在得到其多重分形谱以后,熵率就可以从多重分形谱中计算得到。 熵的单位为 J/(mol·K) 或 kJ/(kmol·K)。但是,通常关心的不是熵的数值,而是熵的变化趋势。对实际的绝热膨胀过程,熵必然增加。熵增加的幅度越小,说明损失越小,效率越高。 在本文中,我们引入统计物理中的方法,用以计算信源的熵率。我们将信源的随机模型和非线性动力学中对象之间建立联系,其中离散无记忆信源、隐马尔可夫信源和康托集之间具有对应关系。我们还将演示如何用解析的方法计算离散无记忆信源的熵率。并且这种统计物理的方法,完全可以推广到一般信源熵率的计算。 1 信息熵 信息论的创始人申农引入了一个重要概念:不确定程度。中文电报中的每个字都由4位数字码代表,在没有收到一个数字码以前,人们对它到底是什么并不知道,如果设法计量这个不确知的程度有多大,就为计量信息找出了线索。
一个电报码从0到9共10个等可能结局,不确定程度就是cln10。当人们收到一个电报码后,就消除了这种“不确定”。这样,人们就从消除了多少不确定程度的角度来定义一个消息中含有的信息量。 于是 令 ,则可得到常数 这样计算出来的信息量单位称为比特(bit),在通信中广泛使用。
当时,即等可能结局情况下,由于各结局出现机会相等,有,(2)式则还原为 这就是等可能结局情况下的计量公式(1),因此(1)式仅是(2)式的一个特例,(2)式是信息熵的一般定义,信息熵也称为申农熵。
对应于多维情况,例如对二维离散型随机变量,若p(xi,yj)是x为xi,y为yj时出现的几率,则复合信息熵为
可以这样说,只要知道概率分布,就可以求出这个分布(一组概率值)对应的信息熵值(一个数值),它表示在一次抽样时变量出现什么值(即结局)的不确定程度。
信息熵的概念建立,为测试信息的多少找到了一个统一的科学的定量计量方法,奠定了信息论的基础。这里引入的信息熵的概念,既不与热力学过程相联系,也与分子运动无关,但信息熵与热力学熵之间有着密切的关系。 2.1 不均匀康托集的多重分形谱和熵率 在下面我们简单介绍一下康托集和多重分形谱的概念,关于更多有关康托集和多重分形谱的介绍请参见文献[7]。一种质量分布不均匀的简单康托二分集可以由如下方式生成:初始只有一条线段,每操作一次,将原有线段三等分并舍去中间1/3段后,余下两段的质量分布概率分别为P和1
|
|