1.简介
包含形式条件的概率条件知识库(B | A(B | A))[d日]阅读“如果A,则B的概率为d“当涉及不确定性时,是知识表示和推理的有力手段[1,2]。如果A类和B类如果是命题字母表∑上的命题公式,则可能世界对应于∑之上的基本连词,其中基本连词是包含∑的每个元素一次的连词,可以是非否定形式的,也可以是否定形式的。可能世界语义由可能世界集合上的概率分布和概率分布给出P(P)满足(B | A(B | A))[d日]如果是条件概率关系P(P)(B | A(B | A)) =d日持有。对于知识库由一组命题条件词组成,P(P)是的模型如果P(P)满足中的每个条件最大熵原理(ME原理)是一个公认的概念,用于选择唯一确定的模型具有最大熵。该模型是在这个意义上,它完成了归纳,但尽可能少地添加额外信息[三–9]. 虽然对于一组命题条件句,关于其ME模型有一个普遍的共识,但当条件句建立在关系一阶语言上时,情况会发生变化。作为示例,请考虑以下示例。
示例1(大象管理员)。大象饲养员的例子,改编自[10,11],为动物园大象和饲养员之间的关系建模。大象通常喜欢它们的饲养员,除了饲养员弗雷德。然而,大象克莱德和每个人都相处得很好,因此他也喜欢弗雷德。知识库 EK公司由以下条件组成: 有条件的ek(希腊语)1对大象与饲养员之间一般关系的统计知识进行建模,而条件ek(希腊语)2代表了对特殊饲养员弗雷德及其与大象关系的总体了解。有条件的ek(希腊语)三模拟了关于大象克莱德和饲养员弗雷德之间关系的主观信念。从常识的角度来看,知识库EK公司非常有意义:有条件ek(希腊语)2是中的例外ek(希腊语)1、和ek(希腊语)三是中的例外埃克2。
当试图将ME原则从命题情况扩展到这种关系设置时,一个中心问题是如何解释条件中出现的自由变量。例如,请注意EK公司生成一个可被视为命题知识库的基础知识库。然而,这种扎根的知识是不一致的,因为它包含了两者(喜欢(克莱德,弗雷德)|大象(克莱德),门将(弗雷德))[0.9]和(喜欢(克莱德,弗雷德)|大象(克莱德),门将(弗雷德))[0.05],无概率分布P(P)都能满足P(P)(喜欢(弗雷德·克莱德)|大象(克莱德),门将(弗雷德))=0.9和P(P)(喜欢(克莱德,弗雷德)|大象(克莱德),门将(弗雷德)) = 0.05.
因此,当将ME原则扩展到具有自由变量的关系型情况时,如EK公司,必须指定变量的确切作用。有多种方法处理概率与一阶语言的组合(例如[12,13]); 对几种方法进行了比较和评价[14]). 在下面,我们重点讨论两种语义,它们都对概率关系条件句使用了最大熵原则,即聚合语义[15]由Kern-Isberner和逻辑FO-PCL提出[16]由Fisseler精心设计。虽然这两种方法在解释条件中的变量时都涉及一组常量,但它们之间也有很大的区别。FO-PCL要求所有条件接地具有相同的概率d日在条件中给定,并且通常,FO-PCL需要通过提供约束公式来限制条件中发生的变量的可能实例化,如U型≠五或U型≠一为了避免不一致。另一方面,在聚合语义下,基础实例可能具有不同的概率,只要它们聚合到给定的概率d日,聚合语义仅为没有约束公式的条件定义。 本文提出了一个逻辑框架PCI,它将聚合语义扩展到具有实例化限制的条件,并提供了一个基础语义。从知识表示的角度来看,这提供了更大的灵活性,例如,当表达关于已知在某些关系方面例外的个人的知识时。我们证明了[15]和FO-PCL的语义[16]作为PCI的特例,也有助于澄清这两种方法之间的关系。此外,我们研究了PCI-基础和PCI-聚合语义下的ME模型,这两种语义通常是不同的,并且我们给出了一个知识库条件,以确保两种ME语义一致。 本文是对[17]其组织结构如下。在第2节中,我们简要回顾了FO-PCL和聚合语义的背景。在第3节中,开发了逻辑框架PCI,并通过扩展相应的[15,16]。在第4节中,对这些满足关系采用了最大熵原理;我们证明,对于以下知识库,所得到的语义是一致的参数均匀[11,16]。在第五节中,我们提出并讨论了一些具体知识库在PCI-基础和PCI-聚合语义下的ME分布,并指出了它们的差异和共同特征,特别包括给定条件的基础。最后,在第6节中,我们总结并指出了进一步的工作。 2.背景:FO-PCL和聚合语义
如第1节所述,简单地建立关系知识库很容易导致不一致。因此,逻辑FO-PCL[11,16]对条件的自由变量使用实例化限制。FO-PCL条件还有一个约束公式,用于确定容许实例化FO-PCL的基础语义要求条件c(c)必须具有以下给定的概率c(c)。 示例2(带实例化限制的大象守护者)。在FO-PCL中,将K≠fred添加到条件ek1 和E≠clyde到条件ek2 在里面 EK公司生成知识库 ′EK公司具有: 注意,例如,地面实例(喜欢(克莱德,弗雷德)|大象(克莱德),门将(弗雷德))[0.05]条件ek′的2 是不可接受的,并且 ′EK公司在所考虑的命题知识库的概率语义下确实是一致的,例如[8,18]. 因此,在FO-PCL语义下,′EK公司是一致的,其中概率分布P(P)满足FO-PCL条件第页,表示为,iff所有允许的地面实例第页概率由第页。
相反,聚合语义,如[15],不考虑实例化限制,因为它的满足关系(在本文中表示为表示不,我建立第页限制),对地面实例的概率要求较低:(B | A(B | A))[d日]if所有概率之和的商P(P)(B类我∧A类我)和的总和P(P)(A类我)是d日,其中(B类1|A类1),…, (B类n个|A类n个)是的地面实例(B | A(B | A)). 通过这种方式,聚合语义能够平衡地面实例的概率,从而在一致性问题上实现更大的灵活性和更高的容忍度。如果有足够的个体,那么可以对所有概率进行相应的聚合,那么知识库EK公司在FO-PCL语义下是不一致的,在聚合语义下是一致的。 3.PCI逻辑
逻辑框架PCI(第页概率的c(c)条件我实例化限制)使用有实例化约束和无实例化限定的概率条件,并为满足关系提供不同的选项。中给出的PCI语法[19]使用FO-PCL的语法[11,16]。在下文中,我们将准确地阐述,以及PCI提供的满意度关系。 作为FO-PCL,PCI使用形式为∑=(,mathvariant='script',Pred公司). 在PCI-签名中∑=(,,Pred公司),= {秒1,…,秒k个}是一组排序名称或仅排序。这套是一组有限的常数符号,其中d∈具有独特的排序s∈.带有我们表示所有具有排序的常量的集合秒; 因此是一个集合,是排序常量符号的(不相交的)集合的并集。Pred公司是一组谓词符号,每个符号都有特定数量的参数。如果p∈Pred是谓词n个参数,每个参数位置我必须用特定排序的常量或变量填充秒我因此,每个p∈Pred带有形式的arity秒1×…×秒n个∈指示参数所需的排序。变量也有唯一的排序,所有公式和变量替换都必须遵守明显的排序限制。在下文中,我们将采用唯一名称假设,即,不同的常数表示不同的元素。所有术语集定义为.让Σ是在∑上定义的无量词一阶公式的集合,并且以通常的方式。
定义1(实例化限制)。安实例化限制是t形式的不等原子的结合1≠吨2 带有t1,吨2 ∈术语Σ。所有实例化限制的集合用C表示Σ。
由于实例化限制可能是不等式原子的结合,我们可以表示条件具有多个限制,例如,通过声明E类≠克莱德∧K≠弗雷德。
定义2(q-、p-、r-条件)。设A,B∈ Σ 是无量词的一阶公式Σ和。(B | A(B | A))称为定性条件(或者只是q条件). 请注意,A是定性条件的先行项,B是其结果。上的所有定性条件集 Σ 表示为(Σ|Σ)。
让(B | A(B | A)) ∈ (Σ|Σ)是定性条件并让d∈ [0, 1]成为真正的价值。在这里(B | A(B | A))[d日]称为概率条件(或者只是p-条件)所有概率条件的集合 Σ 表示为(Σ|Σ)问题。
让(B | A(B | A))[d日] ∈ (Σ|Σ)问题是概率条件且设C∈CΣ 是实例化限制。此外, 〈(B | A(B | A))[d日],C类〉被称为实例化限制条件(或者只是r-条件). 上的所有实例化限制条件集 Σ 表示为。
实例化限制的定性条件是类似定义的。如果上下文清楚,我们可以省略定性的,概率的、和实例化受限只需使用术语有条件的。
定义3(PCI知识库)。一对(Σ,)由PCI签名组成 和一组实例化限制条件 = {第页1,…,第页米}带有r我∈ 称为PCI知识库。
对于实例化受限条件第页=(B | A(B | A))[d日],Ci公司, ΘΣ(第页)表示关于变量的所有地面替换集第页.地面替代θ ∈θΣ(第页)应用于公式A类,B类和C类以通常的方式,即,根据映射将每个变量替换为某个常量θ= {v(v)1/c(c)1,…,v(v)我/c(c)我}带有v(v)我∈,c(c)我∈, 1≤i≤l因此,θ(A类),θ(B类),以及θ(C类)是基本公式,我们有θ((B | A(B | A))):=(θ(B类)|θ(A类)).
给出地面替换θ在实例化限制中发生的变量上C∈,评估C类在下面θ,表示为,收益率真的若(iff)θ(吨1)和θ(吨2)所有的常数都不同吨1≠吨2∈C类。
定义4(允许的地面替换和实例)。让Σ = (,,Pred公司)是一个多重签名,让r= 〈(B | A(B | A))[d日],C类〉 ∈ 是实例化限制条件。这套容许地面置换r的定义为 在下文中,当我们讨论条件的基本实例时,我们将始终提及其可接受的基本实例。
关于FO-PCL知识库[11],对于PCI知识库(∑,)我们定义赫布兰德基地 ()作为所有地面原子的集合gnd(接地)Σ(第页我)带有第页我∈ .每个子集ω⊆()是一个赫布兰德解释,为定义逻辑语义.设置ΩΣ:= {ω | ω⊆()}表示所有Herbrand解释的集合。赫布兰德解释也被称为可能的世界。 定义5(PCI解释)。的概率语义(Σ,)是一种可能的世界语义[12]其中地面原子 ()是二进制随机变量。A类PCI解释知识库的P(Σ,)因此是概率分布P: ΩΣ →[0, 1].上所有概率分布的集合ΩΣ 表示为 或者只是路过。 PCI框架提供了两种不同的满意度关系:基于FO-PCL中的接地,以及将聚合语义扩展到r-条件。
定义6(PCI满意度关系)。设P∈ 然后让〈(B | A(B | A))[d日],C类〉 ∈ 是r-条件。两种PCI满意度关系 和定义如下:我们说P满足〈(B | A(B | A))[d日],C类〉在下面PCI-接地语义。相应地,P满足(B | A(B | A))[d日],C类〉在下面PCI-聚合语义。 与往常一样,满意度关系用★∈{△,⊛}推广到一组条件通过定义 以下命题表明PCI正确地捕获了基于实例化的语义|=fopcl公司FO-PCL的[11]和聚合语义第页,共页[15](参见第2条)。 提议1(PCI捕获FO-PCL和聚合语义[19]).让(B类|A类)[d日];C类〉成为r-条件并让(B类|A类)[d日]分别是p-条件。然后,以下内容成立: 4.PCI逻辑和最大熵语义
如果知识库是一致的,通常有许多不同的模型可以满足最大熵原理在满足知识库的所有分布中选择具有最大熵的唯一分布[5,8]。将此原则应用于PCI满意度关系和产量★为△或⊛,其中是熵概率分布的P(P)。 示例3(残忍)。知识库 医疗保险= {R(右)1,R(右)2},改编自[11],在一群人中建立友谊模型,其中有一个例外的成员,一个愤世嫉俗的人。一般来说,如果一个人V喜欢另一个人U,那么很可能U也喜欢V。然而,有一个人,厌世者,通常不喜欢其他人:在PCI框架内,请考虑 医疗保险以及常量 和相应的ME发行版ME△(医疗保险)和我⊛(医疗保险)分别在PCI-grounding和PCI-aggregation语义下。 在ME下△(医疗保险),R中出现的所有六个基本条件1 有概率0.9,例如,ME△(医疗保险)(喜欢(a、 b条)|喜欢(b、 一个)) = 0.9.
另一方面,对于分销ME⊛(医疗保险),我们有我⊛(医疗保险)(喜欢(a、 b条)|喜欢(b、 一个)) = 0.46016768和我⊛(医疗保险)(喜欢(a、 c(c))|喜欢(c、 一个)) = 0.46016768,而由R产生的其他四个接地条件1 有概率0.96674480之间。
示例3表明,通常情况下,知识库的PCI-基础语义下的ME模型不同于其在PCI-聚合语义下的ME模型。然而,如果是参数均匀[11,16]情况发生了变化。知识库的参数一致性在中引入[11]并指FO-PCL(或PCI-grounding)语义下的ME分布满足一组米基本条件句可以用一组just表示米优化参数。关系型知识库对于每个条件都是参数一致的iffr∈ ,所有地面实例属于第页拥有相同的优化参数(参见[11,16]详细信息)。例如,知识库′EK公司示例2中的参数是一致的,而知识库医疗保险示例3中的参数不一致。因此,如果参数一致,只是一每个条件的优化参数r∈而不是一个优化参数r的每个地面实例必须进行计算;在计算ME分布时可以利用这一点[17]。在[20],开发了一组转换规则,用于转换任何一致的知识库成为知识库'这样和'在基础语义和'是参数一致的。 使用PCI框架为带有实例化限制的条件提供基础和聚合语义,PCI-基础和PCI-聚合语义的ME模型符合以下条件参数一致。
提议2([19]).让 成为PCI知识库。如果参数一致,然后ME△() =我⊛()。 因此,一般来说我△() ≠我⊛(R(右)),参数均匀性确保我△() =我⊛()。
5.最大熵分布的计算与比较
在示例3中,我们已经给出了ME分布的一些具体概率值。我们现在将研究从PCI-基础和PCI-聚合语义获得的ME分布的更多细节。特别是,我们将说明在将非参数统一的知识库转换为参数统一的知据库时,PCI-基础和PCI-聚合语义的ME分布是如何演变的。
5.2. 基础语义和聚合语义的最大熵分布
使用KREATOR,我们计算了三个知识库的ME分布1,2、和三参与的转换医疗保险用于PCI-接地和PCI-聚合语义。对于发生在1,2和三,我们计算了PCI-接地和PCI-聚合语义在ME分布下的概率。结果如所示表2,使用缩写我(x、 年)的喜欢(x、 年)。 有三个成对的不同ME分布(即,我⊛(1),我⊛(2),我⊛(三))三个成对不同知识库的PCI聚合语义1,2,三另一方面我△(1) =我△(2) =我△(三) =我⊛( 三)自转换过程不会改变PCI基础语义下的最大熵模型,因为三参数一致。
有趣的是,对于源自R(右)1在我⊛(1),以下三种可能性我⊛(2),正如命题2所暗示的那样我⊛(三). 在所有情况下,PCI-聚合语义确保不同的概率聚合到相应条件中声明的概率。
为了比较PCI-grounding和PCI-aggregation,将它们的ME行为与非知识库中给定条件实例的查询进行比较也是很有趣的。例如,对于喜欢(b、 c(c))我们观察到和用于喜欢(b、 一个)我们得到用于PCI聚合语义,而等待我∈{1,2,3}在PCI-接地语义下。 6.结论和进一步工作
在本文中,我们考虑了关系概率条件的基于最大熵的语义。FO-PCL公司[16]使用基础语义并对条件中出现的自由变量使用实例化限制,要求条件的所有允许实例都具有给定的概率。聚合语义[15]通过解释带有自由变量的条件的预期概率来定义概率满意度,仅作为其实例聚合到条件给定概率的概率的指南,而固定实例的实际概率可能不同。 而聚合语义的原始定义[15]考虑到只使用不带约束的条件表示实例化限制,我们开发了扩展聚合语义的框架PCI,以便也可以考虑实例化约束,但不放弃在不同概率上聚合的灵活性。与相比[15]在PCI-聚合语义下,通过为条件提供相应的约束公式,可以限制条件的一组基础,在此基础上针对条件进行聚合。从知识表示的角度来看,这在各种情况下都很有用,例如,当我们谈论个人之间的特定关系时,我们已经知道像克莱德这样的特定个人是给定关系的例外。 注意,PCI捕获了基础语义和聚合语义,而没有作为特殊情况的实例化限制。在知识库参数一致的情况下,当采用最大熵原理时,PCI-基础语义和PCI-聚合语义是一致的,而对于参数不一致的知识库,这两个ME语义通常会导致不同的模型。我们在一个具体的知识库中说明了这两种语义的差异和共同特征,使用KREATOR环境计算ME模型并回答关于这些分布的查询。我们期望这类观察结果将支持对概率一阶推理的形式和常识性质的讨论,特别是在一阶环境中根据最大熵原理进行推理。