×

兹马思-数学第一资源

超平面系综的铰链极小极大学习器。(英语) Zbl 1407.68414号
摘要:在这项工作中,我们考虑由超平面的交集组成的非线性分类器。我们通过最小化负训练样本的极小极大界和正训练样本的铰链型损失来学习这些分类器。这些分类器适用于由少量正数据点和大量负数据点组成的典型真实数据集。这种方法在计算上很有吸引力,因为大多数训练样本(属于负类)都是用其分布的统计数据来表示的,而支持向量机是在单一的经验风险约束下使用的,而支持向量机的变量数目等于训练集的大小。我们首先关注\(K\)超平面的交集,为其提供经验风险界。对于\(m\)个样本,我们证明了这些边界在维数上是独立的,并且衰减为\(K/\sqrt{m}\)。然后,我们将\(K\)-超平面混合风险推广到潜在混合风险,以训练一组\(C\)\(K\)-超平面模型,这些模型可以形成任意复杂的分段线性边界。我们提出了有效的训练算法。最后,我们展示了如何将铰链极小极大值训练与深层结构相结合,并利用转移学习将其扩展到多类环境中。对所提出的模型的实证评估显示了它们在小训练标记数据系统中相对于现有方法的优势。

理学硕士:
68T05型 人工智能中的学习与自适应系统
PDF格式 BibTeX公司 XML 引用
全文: 链接
参考文献:
[1] 彼得·巴特利特和沙哈尔·门德尔森。Rademacher和gaussian复杂性:风险边界和结构结果。机器学习研究杂志,3:463–4822003·Zbl 1084.68549
[2] R、 E.贝尔曼。矩阵分析导论第二版,纽约:麦格劳·希拉,1970年·Zbl 0216.06101
[3] 奥利维尔·博斯克、圣伊凡·布切隆和G'abor Lugosi。统计学习理论导论。机器学习课程207–169页。斯普林格,2004年·Zbl 1120.68428
[4] 伊曼纽尔·J·坎迪斯和亚尼夫计划。压缩感知的概率和无规则理论。信息论,IEEE会刊,57(11):7235-72542011。28·Zbl 1365.94174
[5] Navneet Dalal和Bill Triggs。用于人体检测的定向梯度直方图。在CVPR中,第886-8932005页。
[6] Amit Daniely,Nati Linial和Shai Shalev Shwartz。从平均案例复杂度到不当学习复杂度。计算理论研讨会,STOC 2014,纽约,纽约,美国,2014年5月31日至6月3日,第441-448页,2014年·Zbl 1315.68164
[7] J、 邓文东,R.Socher,L.-J.Li,K.Li,L.Fei Fei。ImageNet:一个大规模的层次图像数据库。2009年CVPR09。
[8] M、 Everingham,L.Van Gool,C.K.I.Williams,J.Winn和A.Zisserman。pascal可视化对象类(voc)挑战。国际计算机视觉杂志,88(2):303-3382010。
[9] 罗斯·B·吉尔希克、杰夫·多纳休、特雷弗·达雷尔和吉滕德拉·马利克。丰富的特征层次结构用于精确的对象检测和语义分割。2014年IEEE计算机视觉和模式识别会议,CVPR 2014,美国俄亥俄州哥伦布,2014年6月23日至28日,第580-587页,2014年。
[10] Bharath Hariharan、Jitendra Malik和Deva Ramanan。用于聚类和分类的判别去相关。2012年10月7日至13日,意大利佛罗伦萨,计算机视觉-ECCV2012-第12届欧洲计算机视觉会议,会议记录,第四部分,第459-472页,2012年。
[11] 特雷弗·黑斯蒂、罗伯特·蒂比拉尼和杰罗姆·弗里德曼。统计学习的要素。斯普林格纽约公司,2001年·Zbl 0973.62007
[12] 让·霍诺里奥和汤米·贾科拉。{线性分类器和PAC-Bayes有限样本保证的期望风险的紧界}。《第十七届国际人工智能与统计会议论文集》,第384-392页,2014年。
[13] Sham M Kakade、Karthik Sridharan和Ambuj Tewari。关于线性预测的复杂性:风险界、边际界和正则化。神经信息处理系统的进展,793-8002008页。
[14] 亚当·R·克里文斯和亚历山大·A·谢尔斯托夫。学习半空间交集的密码困难。计算机与系统科学杂志,75(1):2-12,2009·Zbl 1158.68384
[15] 雅莉·康托罗维奇。超平面k-折叠极大值的Rademacher复杂性。2018网址https://www.cs.bgu.ac.il/®karyeh/rademacher-max-hyperplane.pdf。
[16] Ilja Kuzborskij,Francesco Orabana和Barbara Caputo。从N到N+1:多类转移增量学习。2013年IEEE计算机视觉和模式识别会议,波特兰,美国,2013年6月23-28日,第3358-3365页,2013年。
[17] 格特·R·G·兰克莱特、劳伦特·埃尔·加维、奇兰吉布·巴塔查里亚和迈克尔·I·乔丹。一种稳健的极小极大分类方法。J、 马赫。学习。Res.,3:555–5822003年·邮编:1084.68657
[18] M、 勒杜和塔拉格兰德。Banach空间中的概率:等周度和过程。数学系列中的一系列现代调查。斯普林格,1991年。ISBN 9783540520139·Zbl 0748.60004
[19] 托马斯·马利西维茨、阿比纳夫·古普塔和阿列克谢·埃夫罗斯。用于目标检测的样本支持向量机的集成。在IEEE国际计算机视觉会议上,2011年ICCV,西班牙巴塞罗那,2011年11月6-13日,第89-962011页。
[20] 艾伯特W.马歇尔和英格拉姆·奥尔金。多元切比雪夫不等式。安。数学。统计学家,31(4):1001-10141960年。29岁·中银0244.60013
[21] P、 墨菲和D。阿哈。Uci机器学习数据库库。技术代表,美国加州,信息和计算机科学系,1994年。
[22] M、 Osadchy,D.Keren和B.Fadida Specktor。混合分类器用于背景丰富的目标分类。ECCV(5),第284-2972012页。
[23] 玛格丽塔·奥萨德希、丹尼尔·凯伦和多列夫·拉维夫。使用混合分类器进行识别。IEEE传输。肛门模式。机器。国际期刊,38(4):759–7712016年。
[24] 还有杰森·戈弗里、克里斯·塔弗里、克里斯·塔弗里。Rusboost:在训练数据倾斜时提高分类性能。在ICPR中,第1-4页,2008年。
[25] 弗拉基米尔·瓦普尼克。统计学习理论的本质。斯普林格科学与商业媒体,2000年·Zbl 0833.62008
[26] 安德烈·韦达尔迪和卡雷尔·伦克。MatConvNet:MATLAB的卷积神经网络。进行中。第23届ACM多媒体年会,布里斯班,第689-692页,2015年。doi:10.1145/2733373.2807412。
[27] J、 肖,海斯,艾辛格,奥利瓦,托拉巴。太阳数据库:从修道院到动物园的大规模场景识别。CVPR,第3485-3492页,2010年。
[28] 张彤。某些正则化线性函数类的覆盖数界。机器学习研究杂志,2:527-5502002·Zbl 1007.68157
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。