×

元解释性学习:在语法推理中的应用。 (英语) Zbl 1319.68121号

小结:尽管早期有兴趣,但谓词发明最近在ILP中被低估了。我们开发了一个框架,在该框架中,谓词发明和递归泛化是使用关于元解释器的外展来实现的。该方法基于一个先前未被探索的正则语言语法推理的逆蕴涵案例。每个外展语法(H)都由存在量化的原子公式的连接表示。因此,(neg H)是一个普遍量化的子句,表示拒绝。(负H)解的假设空间可以按(θ)-包含排序。我们证明了这种表示可以映射到高阶数据日志的一个片段,其中(H)中的原子公式是一阶定子句语法规则的投影,存在量化变量是一阶谓词符号的投影。这使得谓词发明可以通过引入一阶变量来实现。Inoue和Furukawa以前的工作使用诱拐和元层次推理来发明表示命题的谓词。相比之下,本文使用带有元解释框架的诱因来创造关系。我们使用两种不同的声明性表示描述了元解释学习(MIL)的实现:Prolog和答案集编程(ASP)。我们将这些实现与最先进的ILP系统MC-TopLog进行了比较,该系统使用学习常规语法和上下文无关语法以及学习简化自然语言语法和楼梯语法描述的数据集。实验表明,在随机选择的文法上,这两种实现比MC-TopLog具有更高的精确度。就运行时间而言,Metagol在这些任务中总体上是最快的。实验表明,Prolog实现与ASP实现相比具有竞争力,因为它能够编码强烈的程序偏差。我们证明MIL可以用于学习自然语法。在这种情况下,实验表明,增加可用的背景知识,减少了运行时间。另外\(\mathrm{ASP}_{\mathrm M}\)(使用元解释器的ASP)在背景知识稀少的情况下,显示出比Metagol有速度优势。我们还通过组合\(\mathrm{梅塔戈里}_{\mathrm R}\)(带有正则语法元解释器的Metagol)和\(\mathrm{梅塔戈里}_(上下文无关元解释器)我们可以制定一个系统{梅塔戈里}_{\mathrm{RCF}}\),它可以通过首先假设目标是Regular来更改表示,如果不这样做,则切换到假设它是Context-Free\(\mathrm{梅塔戈里}_{\mathrm{RCF}}\)比\(\mathrm)快100倍{梅塔戈里}_{\mathrm{CF}}\)从常规和非常规上下文无关文法中随机选择的文法。

MSC公司:

第68季度32 计算学习理论
68N17号 逻辑编程
2012年第68季度 语法和重写系统
68T05年 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] 安德烈斯,B。;考夫曼,B。;马塞斯,O。;Schaub,T.,卡环中基于不满意的优化(2012)·Zbl 1281.68204号
[2] Blumer,A.、Ehrenfeucht,A.、Haussler,D.和Warmuth,M.K.(1989年)。可学习性和Vapnik-Chervonenkis维度。ACM期刊,36(4),929-965·Zbl 0697.68079号 ·数字对象标识代码:10.1145/76359.76371
[3] Boström,H.,《谓词的发明和仅从实证中学习》,226-237(1998),柏林·doi:10.1007/BFb0026693
[4] 库森,J。;普鲁曼,S。;Cussens,J.(编辑);Dzeroski,S.(编辑),归纳图解析实验,第1925、143-156号(2000),柏林·Zbl 0986.68640号 ·doi:10.1007/3-540-40030-39
[5] de la Higuera,C.(2005)。语法推理的书目研究。模式识别,381332-1348·doi:10.1016/j.patcog.2005.01.003
[6] Denis,F.(2001)。从简单的正面例子学习正规语言。机器学习,44(1),37-66·Zbl 0983.68104号 ·doi:10.1023/A:1010826628977
[7] Farid,R.和Sammut,C.(2012年出版)。使用关系学习的基于平面的对象分类。ILP2012 MLJ特刊。
[8] Flach,P.A.和Kakas,A.C.(编辑)(2000年)。溯及推理和归纳推理。纯逻辑和应用逻辑。阿姆斯特丹:Kluwer·Zbl 1031.03517号
[9] Floríncio,C.,在字符串刚性文法极限的一致识别是np-hard,729-733(2002)
[10] Gebser,M.、Kaminski,R.、Kaufmann,B.和Schaub,T.(2012)。实践中的答案集求解。人工智能和机器学习综合讲座。圣马特奥:摩根和克莱普尔·Zbl 1251.68060号
[11] Gebser,M。;考夫曼,B。;Neumann,A。;Schaub,T。;Baral,C.(编辑);Brewka,G.(编辑);Schlipf,J.(编辑),《扣:冲突驱动的答案集求解器》,第4483、260-265号(2007年),柏林·doi:10.1007/978-3-540-72200-723
[12] Hopcroft,J.E.和Ullman,J.D.(1979年)。自动机和形式语言简介。阅读:艾迪森·韦斯利·Zbl 0426.68001号
[13] 井上,K。;Furukawa,K。;小林山,I。;Nabeshima,H。;Raedt,L.(编辑),《通过元水平诱拐发现规则》,第5989、49-64号(2010年),柏林·兹比尔1286.68380 ·doi:10.1007/978-3642-13840-96
[14] 卡卡斯,A.C。;努菲伦,B。;Denecker,M.,A-system:通过诱拐解决问题,591-596(2001)
[15] 兰利,P。;斯特罗姆斯顿,S。;Mántaras,R.(编辑);Plaza,E.(编辑),《学习具有简单偏见的上下文无关语法》,第1810、220-228(2000)号,柏林·文件编号:10.1007/3-540-45164-1_23
[16] E.F.摩尔。;Shannon,C.E.(编辑);McCarthy,J.(编辑),Gedanken-时序机实验,129-153(1956),普林斯顿
[17] Muggleton,S.H.(1990年)。专家知识的归纳获取。沃金汉:艾迪森·韦斯利。
[18] Muggleton,S.H.(1995年)。逆蕴涵和程序。新一代计算,13,245-286·doi:10.1007/BF03037227
[19] 麻格尔顿,S.H。;Raedt,L.(编辑),随机逻辑程序,254-264(1996),阿姆斯特丹
[20] 麻格尔顿,S.H。;Bryant,C.H.,使用逆蕴涵完成理论,130-146(2000),柏林·Zbl 0994.68623号 ·数字对象标识代码:10.1007/3-540-44960-48
[21] 麻格尔顿,S.H。;Buntine,W.,《通过反向解析实现一阶谓词的机器发明》,339-352(1988),Los Altos
[22] 麻格尔顿,S.H。;Lin,D。;Tamaddoni-Nezhad,A.,MC-Toplog:由顶级理论指导的完整多条款学习,第7207、238-254号(2012)·doi:10.1007/978-3642-31951-822
[23] Muggleton,S.H.、De Raedt,L.、Poole,D.、Bratko,I.、Flach,P.和Inoue,K.(2011)。ILP 20岁:个人简介和未来挑战。机器学习,86(1),3-23·Zbl 1243.68014号 ·doi:10.1007/s10994-011-5259-2
[24] 麻格尔顿,S.H。;桑托斯,J。;Tamaddoni-Nezhad,A.,TopLog:ILP使用逻辑程序声明性偏差,第5366、687-692号(2010),柏林·Zbl 1185.68171号
[25] 麻格尔顿,S.H。;Pahlavi,N.,《在一阶数据日志框架中实现高效的高阶逻辑学习》(2012年),伦敦·Zbl 1248.68043号 ·doi:10.1007/978-3642-31951-8
[26] Nabeshima,H.、Iwanuma,K.、Inoue,K.和Ray,O.(2010年)。Solar:一种用于后果发现的自动推断系统。AI通讯。,23(2-3), 183-203. ·Zbl 1205.68362号
[27] Nienhuys-Cheng,S.-H.和de Wolf,R.(1997)。LNAI:1228卷。归纳逻辑程序设计基础。柏林:斯普林格·Zbl 1293.68014号
[28] Plotkin,G.D。;Meltzer,B.(编辑);Michie,D.(编辑),《归纳概括注释》,第5期,153-163(1969),爱丁堡·Zbl 0219.68045号
[29] Raedt,L.,机器学习和数据挖掘的声明性建模,12(2012)·doi:10.1007/978-3-642-34106-9_2
[30] Sakakibara,Y.(1992年)。从积极的结构示例中有效地学习上下文自由语法。信息与计算,97(1),23-60·Zbl 0764.68146号 ·doi:10.1016/0890-5401(92)90003-X
[31] Salvador,I.和Benedi,J.M.(2002年)。通过结合随机上下文无关文法和n-gram模型进行Rna建模。国际模式识别与人工智能杂志,16(3),309-316·doi:10.1142/S021801402001691
[32] Stolke,A.(1995年)。一种计算前缀概率的高效概率无上下文解析算法。计算语言学,21(2),165-201。
[33] Vanlehn,K.和Ball,W.(1987年)。学习无上下文语法的版本空间方法。机器学习,239-74。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。