×

语言学习中犹豫的力量。 (英语) Zbl 0939.68099号

小结:本文从实证数据出发,对Gold的机器语言学习模型进行了一些扩展。所研究的是成功学习的标准,其特点是在几个可供选择的正确语法之间收敛到摇摆不定的极限。本文的主要定理是,如果允许收敛到(n+1)个完全正确的文法的极限,那么可以学习一些语言类,但是如果收敛到不超过n个文法的限制,那么就无法学习这些语言类,其中不超过n的文法都可以犯有限多的错误。这与Barzdin和Podnieks以及后来Case和Smith从正面和负面数据中学习的结果形成了鲜明对比。
Angluin 1980年的一篇论文中的子集原理被扩展到本文的摇摆和其他标准。这一原则为避免从积极数据中学习的过度概括提供了必要条件。它被应用于证明另一个定理,其大意是,如果愿意收敛于无穷多个不同程序的极限,则可以从最终程序中最优地消除波动准则的一半错误。
儿童语言学习可能对数据呈现的顺序或时间很敏感。然而,结果表明,对于本文的优柔寡断的成功准则,对于同时以几种方式对顺序不敏感的机器来说,学习能力并没有损失。例如,部分集驱动机器只关注阳性数据序列的集和长度,而不是实际序列本身。机器(mathbf M)对于每种语言(L)都是弱(n)元顺序无关的({overset{text{def}}\Leftrightarrow}),在每种语言上,对于关于(L)的正数据的某些排序,(mathbfM)在极限内收敛到有限的语法集,有一个有限的语法集合(D)(基数为(leq n)),使得对于\(L\)的正数据的每个排序,收敛到相同\(D\)的子集。本文中最难证明的定理意味着,同时具有部分集驱动和弱n元序独立性的机器不会因为收敛到n个文法的极限而失去学习能力。通过修改其证明,得到了该定理的几个变体,其中一些变体在本文和其他论文中都有应用。在此过程中,我们还发现,对于犹豫不决的标准,如果限制积极数据呈现的顺序是可计算的,那么学习能力不会增加。其中一些结果是对Blums所做的(n=1)案例先前工作的重要提升;维哈根;Osherson、Stob和Weinstein;Schäfer;和富尔克。

MSC公司:

68T05型 人工智能中的学习和自适应系统
65年第68季度 形式语言和自动机
PDF格式BibTeX公司 XML格式引用
全文: 内政部