×

重新思考统计学习理论:使用统计不变量进行学习。 (英语) Zbl 1480.62064号

摘要:本文介绍了一种不同于经典学习范式的新的学习范式,称为统计不变量学习(LUSI)。在经典范式中,学习机器构造了一个分类规则,以最小化预期错误的概率;它是数据驱动的学习模型。在LUSI范式中,为了构造所需的分类函数,学习机计算特定于问题的统计不变量,然后以保留这些不变量的方式最小化预期误差;因此,它既是数据驱动的学习,也是不变量驱动的学习。从数学的角度来看,经典范式的方法采用了对期望函数逼近的强收敛机制,而新范式的方法同时采用了强收敛和弱收敛机制。这可以显著提高收敛速度。

MSC公司:

62G05型 非参数估计
62H30型 分类和区分;聚类分析(统计方面)
68问题32 计算学习理论
68T05型 人工智能中的学习和自适应系统
68立方英尺 知识表示

软件:

UCI-毫升
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Corfield,D.、Schölkopf,B.和Vapnik,V.(2005年)。Popper、伪造和VC维度。技术报告145,马克斯·普朗克生物控制论研究所。
[2] Corfield,D.、Schölkopf,B.和Vapnik,V.(2009年)。证伪主义和统计学习理论:波普尔和瓦普尼克·谢尔沃内基斯维度的比较。普通科学哲学杂志,40(1),51-58·doi:10.1007/s10838-009-9091-3
[3] Lichman,M.(2013)。UCI机器学习库。http://archive.ics.uci.edu/ml。2018年2月1日访问。
[4] Popper,K.(1934年)。科学发现的逻辑。伦敦:哈钦森·Zbl 0083.24104号
[5] Tikhonov,A.和Arsenin,V.(1977年)。不良问题的解决方案。华盛顿:W.H.Winston·Zbl 0354.65028号
[6] Vapnik,V.(1995)。统计学习理论的本质。纽约:斯普林格·Zbl 0833.62008号 ·数字对象标识代码:10.1007/978-1-4757-2440-0
[7] Vapnik,V.和Chervonenkis,A.(1974年)。模式识别理论。莫斯科:瑙卡。(俄语)·Zbl 0284.68070号
[8] Vapnik,V.和Izmailov,R.(2017)。支持向量机和神经网络中的知识转移。数学与人工智能年鉴,81(1-2),3-19·兹比尔1422.68207 ·doi:10.1007/s10472-017-9538-x
[9] Vapnik,V.和Stefanyuk,A.(1978年)。估计概率密度的非参数方法。自动化和远程控制,8,38-52·Zbl 0418.93071号
[10] Wapnik,W.和Tscherwonenkis,A.(1979年)。Zeichenerkennung理论。柏林:Akademie-Verlag·Zbl 0417.68071号
[11] Wigner,E.(1960年)。数学在自然科学中的不合理有效性。纯数学与应用数学交流,13(1),1-14·兹伯利0102.00703 ·doi:10.1002/cpa.3160130102
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。