×

定义由实数参数化的概念类的Vapnik-Chervonenkis维数。 (英语) Zbl 0831.68087号

摘要:Vapnik-Chervonenkis(V-C)维是PAC框架中分析学习问题的重要组合工具。为了多项式的可学习性,我们在概念的句法复杂性中寻求V-C维的多项式上界。对于离散概念类来说,这样的上界是自动的,但迄今为止,对于概念和示例由实数元组表示的类来说,什么样的一般条件保证了V-C维上的多项式上界,人们知之甚少。本文证明了对于两类一般的概念类,V-C维在用于定义问题实例的实数个数中是多项式有界的。一类是这样的类:概念中实例的隶属度标准可以表示为具有固定量化深度和指数边界长度的公式(在实的一阶理论中),其原子谓词是指数边界度的多项式不等式。另一类是概念中实例的包含可以在多项式时间内测试的类,假设我们可以在恒定时间内准确计算实型上的标准算术运算。
我们的结果表明,在连续情况下,与离散情况下一样,在Occam意义上,有效学习的真正障碍是复杂性理论,而不是信息理论。我们举例说明这些结果如何应用于由几何图形和神经网络定义的概念类,并推导出这些类在V-C维度上的多项式边界。

MSC公司:

68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Alt,H.、Behrends,B.和Blömer,J.(1991)。多边形形状的近似匹配。程序。1991年ACM计算几何研讨会第186-193页·Zbl 0855.68106号
[2] Anthony,M.和Biggs,N.(1992年)。《计算学习理论:导论》,剑桥大学出版社,1992年·Zbl 0755.68115号
[3] M.J.阿塔拉(1983)。凸多边形之间Hausdorff距离的线性时间算法。《信息处理信函》,第17页,第207-209页·Zbl 0527.68051号 ·doi:10.1016/0020-0190(83)90042-X
[4] Baum,E.B.和Haussler,D.(1988年)。多大的网络提供了有效的泛化?神经计算1,第151-160页·doi:10.1162/neco.1989.1.1151
[5] Ben-David,S.和Lindenbaum,M.(1993)。半代数集的定位与识别。第六届美国计算机学会计算学习理论年会论文集,第327-336页·Zbl 0912.68167号
[6] Ben-Or,M.(1983年)。代数计算树的下限。第15届ACM计算机理论年会论文集,第80-86页。
[7] Blumer,A.、Ehrenfeucht,A.、Haussler,D.和Warmuth,M.K.(1987年)。奥卡姆剃刀。信息处理信函24,第377-380页·Zbl 0653.68084号 ·doi:10.1016/0020-0190(87)90114-1
[8] Blumer,A.、Ehrenfeucht,A.、Haussler,D.和Warmuth,M.K.(1989年)。可学习性和Vapnik-Chervonenkis维度。《计算机协会杂志》36第4期,第929-965页·Zbl 0697.68079号
[9] Dudley,R.M.(1978年)。《经验测度的中心极限定理》,《概率年鉴6》,第899-929页·Zbl 0404.60016号 ·doi:10.1214/aop/1176995384
[10] Ehrenfeucht,A.、Haussler,D.、Kearns,M.和Valiant,L.G.(1989年)。学习所需示例数量的一般下限。信息与计算82,第247-261页·Zbl 0679.68158号 ·doi:10.1016/0890-5401(89)90002-3
[11] Goldberg,P.(1992)。PAC-学习几何图形。爱丁堡大学计算机科学系博士论文(1992年)。
[12] Hall,M.(1967年)。组合理论,Blaisdell,Waltham MA(1967)·Zbl 0196.02401号
[13] Haussler,D.、Littlestone,N.和Warmuth,M.K.(1988年)。在随机绘制的点上预测{0,1}函数。第29届IEEE计算机科学基础研讨会论文集,第100-109页·Zbl 0938.68785号
[14] 拉斯科夫斯基,M.C.(1992)。Vapnik-Chervonenkis可定义集类。J.伦敦数学。社会(2)45,第377-384页·Zbl 0766.60016号 ·doi:10.1112/jlms/s2-45.2.377
[15] Linial,N.、Mansour,Y.和Rivest,R.(1991年)。可学习性和Vapnik-Chervonenkis维度的结果。信息与计算90,第33-49页·Zbl 0715.68071号 ·doi:10.1016/0890-5401(91)90058-A
[16] Maass,W.(1992年)。模拟神经网络的计算能力和学习复杂性的界限。仪器。信息处理格拉茨报告349;1992年10月。第25届ACM计算机理论年会论文集(1993年),第335-344页。
[17] Macintyre,A.&Sontag,E.D.(1993年)。Sigmoidal?的有限性结果?神经?《网络》,第25届ACM计算机理论研讨会论文集,第325-334页·Zbl 1310.68077号
[18] Milnor,J.(1964年)。关于实变分的Betti数。程序。美国数学学会15,第275-280页·Zbl 0123.38302号 ·doi:10.1090/S0002-9939-1964-0161339-9
[19] Natarajan,B.K.(1991)《机器学习:理论方法》。摩根考夫曼出版社,ISBN 1-55860-148-1·Zbl 0722.68093号
[20] Renegar,J.(1992年)。关于实的一阶理论的计算复杂性和几何。第1部分(共3部分)。符号计算杂志13,第255-299页·Zbl 0763.68042号 ·doi:10.1016/S0747-7171(10)80003-3
[21] Sontag,E.D.(1992年)。用于插值和分类的前馈网络,《计算机与系统科学杂志》45,第20-48页·Zbl 0791.68141号 ·doi:10.1016/0022-0000(92)90039-L
[22] Steele,J.M.和Yao,A.C.(1982年)。代数决策树的下界。《算法杂志》3,第1-8页·Zbl 0477.68065号 ·doi:10.1016/0196-6774(82)90002-5
[23] Stengle,G.和Yukich,J.E.(1989年)。《一些新Vapnik-Chervonenkis类》,《统计年鉴》17,第1441-1446页·Zbl 0697.60026号 ·doi:10.1214/aos/1176347373
[24] Valiant,L.G.(1984)。可学习理论。ACM 27第11号来文,第1134-1142页·Zbl 0587.68077号 ·数字对象标识代码:10.1145/1968.1972
[25] Valiant,L.G.(1985)。学习连词的错位。第九届国际人工智能联合会议议事录,第560-566页。
[26] Valiant,L.G.(1991)。计算学习理论观点。NEC研究研讨会:计算与认知(编辑C.W.Gear),SIAM,费城,1991年。
[27] Vapnik,V.N.和Chervonenkis,A.Ya。(1971年)。关于事件相对频率与其概率的一致收敛性。概率论及其应用16,第2期,第264-280页·Zbl 0247.60005号 ·数字对象标识代码:10.1137/1116025
[28] Warren,H.E.(1968年)。非线性流形逼近的下限。事务处理。AMS 133第167-178页·Zbl 0174.35403号 ·doi:10.1090/S0002-9947-1968-0226281-1
[29] Wenocur,R.S.和Dudley,R.M.(1981年)。一些特殊的Vapnik-Chervonenkis类。离散数学33,第313-318页·Zbl 0459.60008号 ·doi:10.1016/0012-365X(81)90274-0
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。