1.简介
熵是从微观细节中提取系统普遍特征的关键概念。在统计力学中,考虑用两种形式来描述熵的概念。在第一种形式中,熵被定义为相/Hilbert空间中微观状态总数的对数乘以一个常数(Boltzmann veiwpoint)。在第二种形式中,它是用占据微观状态的概率来表示的(吉布斯观点)[1]. 利用统计力学教材中常见的简单代数运算,证明了这两个定义之间的等价性。在信息论中,熵度量集合中的不确定性。香农导出了与吉布斯关系类似的熵的相同形式。他使用了信息论的公理,这些公理对物理学中的非相互作用系统是直观正确的[2]. 杰恩斯表明,统计力学中获得的所有结果都是香农熵的直接结果[三]. 尽管玻尔兹曼-吉布斯-香农熵(Boltzmann-Gibbs-Shannon)在平衡条件下从力学细节发现系统热力学方面取得了所有成功,但它无法解释自然系统的复杂性。1988年,Tsallis提出了一个新的熵定义,它成功地描述了复杂系统的统计特征[4]:哪里k个是一个正常数(选择适当的单位,我们可以将其设置为1),代表占领概率我-系统的第个状态,N个统计系统的已知微观状态,并q个是一个正实参数。Tsallis熵是非广义的,这意味着如果两个相同的系统合并,合并后的系统的熵不等于其子系统的熵之和。通过简单的计算,我们可以证明在极限Tsallis熵趋于BGS熵。 在适当的约束条件下,通过优化Tsallis熵建立的非扩展统计力学可以解释许多物理系统的性质[5,6,7,8]. 由于热力学极限对于纳米系统来说是一个毫无意义的概念,我们无法得出许多熟悉的热力学结果。已经表明,纳米系统遵循非拉伸统计力学[9,10]. 当我们要推导BGS熵时,系统实体之间存在的远程交互无法满足系统的非交互组件条件。在这种情况下,模拟表明熵和能量是非紧张的[11,12]. 许多自然或社会系统的组成部分之间存在小规模或长范围的相互作用,因此我们可以使用非广义统计力学来研究这些系统。研究发现,在保守的外汇市场中,经济主体的财富分布可以用Tsallis熵指数进行分类q个区分了两种不同的市场——大市场和小市场[13]. Tsallis统计也可用于获取地震活动的时空和震级分布[14,15]. 非拉伸统计力学的许多其他应用可以在Tsallis书的参考文献中找到[8]. 为了从信息论公理中提取出Tsallis熵,已经做了几次尝试。其中王的作品更为可信[16,17]但他获得了非张量熵的不同形式,而不是通常的Tsallis熵形式。在这里,除了将在下一节介绍的护送概率外,我们遵循王的方法使用不完全信息理论的公理。护送概率的Tsallis熵的通常形式是我们尝试的结果。 我们将在下一节讨论不完全知识及其与信息论的关系。第三部分从不完全信息理论的公理出发,介绍了伴随概率和Tsallis熵的推导。最后,我们总结了我们的工作并讨论了其优缺点。
2.不完全信息理论
随机变量的结果集,及其相应的发生概率,被称为合奏。N个是杰出成果的数量。统计力学的主要目标是确定关于某些约束的结果概率。约束通常以等式形式给出根据最大熵原理,熵是概率的函数,,应在平衡条件下最大化。拉格朗日乘子法可用于优化伴随约束的熵。
熵的函数形式来源于信息论的公理。这些公理考虑微正则系综的熵,如果所有概率都相等。在这种情况下,熵等于哈特利测度,对于其他情况,熵是直接从Hartley测度获得的。信息论的公理是,- (i)
- (ii)
- (iii)
- (iv)
- (v)
第一个公理陈述了零值,即对于某些结果,熵等于零。第二个公理确定了测量不确定性的单位。Hartley测度是第三公理中所述的结果数量的递增函数。第四个公理陈述了Hartley测度和熵的延展性特征。第五条公理称为合成规则,它规定如果我们将结果集划分为n个不同的子集,,则任何子集都可以被视为具有发生概率的新事件属于一-第个子集。母集结果的不确定性等于母集子集的不确定性加上子集不确定性的加权组合。第五个公理允许我们导出具有非等概率结果的系综的熵。可以证明,满足上述公理的唯一函数是因此,香农熵是通过简单的计算得到的, 后面的两个公理与子集的完整知识完全相关,。有时这种假设可能会失败[16,17,18,19]事件概率之和小于一,,这意味着我们不完全知道事件集,有些事件可能仍然未知。例如,强度超过十里氏的地震尚未被记录,但这是可能的。我们对地震事件的了解在这方面是不完整的[15]. 王在他的作品中假设q个存在,以便他还改变了信息论的最后两条公理,将不完全信息条件包括在内[16,17],- (iv′)
- (v′)
第二条公理也改为以简化代数操作。很明显,,是递增单调函数,满足公理(iv). 熵可以通过使用(v)公理,上述熵的形式与通常的Tsallis熵不同。在接下来的部分中,我们介绍了护送概率,并改变了信息熵的公理来考虑它。通过使用与Wang的工作相同的方法,我们从护送概率的角度获得了Tsallis熵。 3.伴随概率下的Tsallis熵
对应于任何概率在一组不完全概率中,我们可以定义一个有效的实际概率如下[20,21,22,23],哪里q个是一个真正的正参数。这是可以从经验数据中测量的实际概率,称为伴随概率。为了得出熵中的护送概率,我们应该改变信息论的最后两个公理。伴随概率的熵依赖性代表了我们知识的不完整性,- (iv′′)
- (v′′)
功能将在稍后根据熵最大化原则确定。 如果我们选择作为满足(iv)的解)公理,然后熵得到以下形式。有一个简单的计算表明,上述熵接近BGS形式的极限,。如果我们允许该函数,则不完全知识条件下的任何结果都应接近完全信息状态下的对应结果趋于零。例如,我们考虑正则系综。上述熵应最大化,以满足以下约束条件。利用拉格朗日乘子法,推导了护送概率。在这方面,我们定义了以下辅助函数。方程式给出了护送概率的平稳形式,应用我们的归一化条件,方程式(8)接近,在限制内如果我们把为了确保护送概率的导出形式最大化熵,我们测试了函数的二阶导数R(右),函数的第一个标准获得,熵的单调性给了我们第二个标准,应用上述标准不是唯一确定的。特殊情况下,我们可以恢复Tsallis熵的通常形式,在上述证明中,我们使用方程6作为随机变量期望值的定义x个期望值的其他定义[24,25]也让我们得到了Tsallis熵的相同形式。 4.结论
总之,我们改变了信息论的公理,将护送概率作为我们知识不完整的标志。与Wang的方法类似,我们获得了Tsallis熵的通常形式,但以伴随概率表示。