×

边缘转移学习的领域泛化。 (英语) Zbl 07370519号

摘要:在领域泛化(DG)问题中,存在来自几个相关预测问题的标记训练数据集,其目标是对学习者未知的未来未标记数据集进行准确预测。这个问题出现在一些应用程序中,其中数据分布由于环境、技术或其他变化源而波动。我们引入了一个DG的形式化框架,并认为它可以被视为一种监督学习问题,即通过特征向量的边缘分布来增加原始特征空间。虽然我们的框架与监督学习算法的传统分析有一些联系,但DG的几个独特方面需要新的分析方法。
这项工作在我们之前介绍DG问题的会议论文的基础上,奠定了领域泛化的学习理论基础。我们提出了两种数据生成的形式化模型、相应的风险概念和无分布泛化错误分析。通过将注意力集中在核方法上,我们还提供了更定量的结果和普遍一致的算法。该算法提供了一种有效的实现方法,并在一个合成数据集和三个真实数据集上与池策略进行了实验比较。

MSC公司:

68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: arXiv公司 链接

参考文献:

[1] Nima Aghaeepour、Greg Finak、FlowCAP联盟、DREAM联盟、Holger Hoos、Tim R.Mosmann、Ryan Brinkman、Raphael Gottardo和Richard H.Scheuermann。自动流式细胞术数据分析技术的关键评估。《自然方法》,10(3):228-2382013。
[2] 赤泽庆树、岩泽优助和松田裕隆。具有精度约束的对抗不变特征学习用于领域泛化。2019年欧洲机器学习和数据库知识发现原理与实践会议。
[3] Kamyar Azizzadenesheli、Anqi Liu、Fanny Yang和Animashree Anandkumar。规范化学习,适应标签下的领域变化。2019年国际学习代表大会。统一资源定位地址https://openreview.net/forum?id=rJl0r3R9KX。
[4] G¨okhan Bakár、Thomas Hofmann、Bernhard Sch¨olkopf、Alexander J Smola和Ben Taskar。预测结构化数据。麻省理工学院出版社,2007年。
[5] Yogesh Balaji、Swami Sankaranarayanan和Rama Chellappa。MetaReg:使用元规则化实现域泛化。在S.Bengio、H.Wallach、H.Larochelle,
[6] 彼得·巴特利特和沙哈·门德尔森。Rademacher和Gaussian复杂性:风险边界和结构结果。机器学习研究杂志,3:463-482002·Zbl 1084.68549号
[7] 彼得·巴特利特、迈克尔·乔丹和乔恩·麦考利夫。凸性、分类和风险边界。美国统计协会杂志,101(473):138-1562006·Zbl 1118.62330号
[8] 乔纳森·巴克斯特。归纳偏差学习模型。《人工智能研究杂志》,12:149-1982000·Zbl 0940.68106号
[9] Shai Ben-David和Ruth Urner。关于域适应的难度和未标记目标样本的效用。《算法学习理论》编辑Nader H.Bshouty、Gilles Stoltz、Nicolas Vayatis和Thomas Zeugmann,第139-153页,2012年·Zbl 1367.68220号
[10] Shai Ben David、John Blitzer、Koby Crammer和Fernando Pereira。领域适应的表示分析。B.Sch¨olkopf、J.C.Platt和T.Hoffman主编,《神经信息处理系统进展》19,第137-144页。2007
[11] Shai Ben-David、John Blitzer、Koby Crammer、Alex Kulesza、Fernando Pereira和Jennifer Wortman Vaughan。从不同领域学习的理论。机器学习,79:151-1752010·Zbl 1470.68081号
[12] 斯蒂芬·比克尔(Steffen Bickel)、迈克尔·布卢克纳(Michael Br¨uckner)和托比亚斯·谢弗(Tobias Scheffer)。协变量转移下的判别学习。机器学习研究杂志,10:2137-21552009·Zbl 1235.62066号
[13] Gilles Blanchard、Gyemin Lee和Clayton Scott。将几个相关的分类任务概括为一个新的未标记样本。约翰·肖·泰勒、理查德·泽梅尔、彼得·巴特利特、费尔南多·佩雷拉和基利安·温伯格主编,《神经信息处理系统进展》24,第2178-2186页。2011
[14] Gilles Blanchard、Marek Flaska、Gregory Handy、Sara Pozzi和Clayton Scott。非对称标签噪声分类:一致性和最大去噪。《电子统计杂志》,10:2780-28242016·Zbl 1347.62106号
[15] 约翰·布利策(John Blitzer)、科比·克拉默(Koby Crammer)、亚历克斯·库莱斯扎(Alex Kulesza)、费尔南多·佩雷拉(Fernando Pereira)和詹妮弗·沃特曼(Jennifer Wortman)。领域适应的学习边界。J.C.Platt、D.Koller、Y.Singer和S.T.Roweis主编,《神经信息处理系统进展》20,第129-136页。2008
[16] 蒂莫西·坎宁斯(Timothy I.Cannings)、范英英(Yingying Fan)和理查德·桑沃思(Richard J.Samworth)。培训标签不完善的分类。技术报告arXiv:1805.115052018·兹比尔1441.62165
[17] Fabio Maria Carlucci、Antonio D’Innocent、Silvia Bucci、Barbara Caputo和Tatiana Tommasi。通过解决拼图难题实现领域泛化。2019年IEEE计算机视觉和模式识别会议(CVPR),第2224-2233页,2019年。
[18] 里奇·卡鲁阿纳。多任务学习。机器学习,28:41-751997。48
[19] 张志忠和林志仁。LIBSVM:支持向量机库。ACM智能系统与技术汇刊,2(3):272011年。
[20] 安德烈亚斯·克里斯特曼(Andreas Christmann)和英戈·斯坦瓦特(Ingo Steinwart)。非标准输入空间上的通用内核。J.Lafferty、C.K.I.Williams、J.Shawe-Taylor、R.Zemel和A.Culotta,编辑,《神经信息处理系统进展》23,第406-414页,2010年。
[21] 科琳娜·科尔特斯(Corinna Cortes)、梅赫亚尔·莫赫里(Mehryar Mohri)、迈克尔·莱利(Michael Riley)和阿夫申·罗斯塔米扎德(Afshin Rostamizadeh)。样本选择偏差修正理论。《算法学习理论》,第38-53页,2008年·Zbl 1156.68524号
[22] Corinna Cortes、Mehryar Mohri和Andr´es Mu~noz Medina。基于广义差异的自适应算法和理论。第21届ACM SIGKDD知识发现和数据挖掘国际会议论文集,KDD’15,第169-178页,2015年。
[23] Daryl J.Daley和David Vere-Jones。点过程理论导论,第一卷:基本理论和方法。施普林格,2003年·Zbl 1159.60003号
[24] Daryl J.Daley和David Vere-Jones。点过程理论导论,第二卷:一般理论与结构。施普林格,2008年·Zbl 1159.60003号
[25] 朱利亚·德内维(Giulia Denevi)、卡洛·西利伯托(Carlo Ciliberto)、迪米特里斯·斯塔莫斯(Dimitris Stamos)和马西米利亚诺·蓬蒂尔(Massimiliano Pontil)。学会以共同的方式学习。在S.Bengio、H.Wallach、H.Larochelle、K.Grauman、N.Cesa-Bianchi和R.Garnett编辑的《神经信息处理系统进展》31,第10169-10179页。2018年a。
[26] 朱利亚·德内维(Giulia Denevi)、卡洛·西利伯托(Carlo Ciliberto)、迪米特罗斯·斯塔莫斯(Dimitros Stamos)和马西米利亚诺·蓬蒂尔(Massimiliano Pontil)。增量学习-在统计保证下学习。InProc.公司。人工智能中的不确定性,2018b。
[27] 丁正明和傅云。结构化低秩约束的深域泛化。IEEE图像处理汇刊,2018年27:304-313·Zbl 1409.94120号
[28] 齐斗、丹尼尔·科埃霍·德卡斯特罗、康斯坦蒂诺斯·坎尼特斯和本·格洛克。通过语义特征的模型认知学习进行领域泛化。H.Wallach、H.Larochelle、A.Beygelzimer、F.d‘Alch´e-Buc、e.Fox和R.Garnett编辑,《神经信息处理系统进展》32,第6450-6461页。2019
[29] Petros Drineas和Michael W.Mahoney。关于Nystr–om方法,用于近似gram矩阵,以改进基于核的学习。机器学习研究杂志,6:2153-21752005·Zbl 1222.68186号
[30] 马提努斯·克里斯托弗·杜普莱西斯和杉山正树。基于分布匹配的班级优势变化下的班级平衡半监督学习。J.Langford和J.Pineau,编辑,Proc。第29届国际机器学习大会,第823-830页,2012年·Zbl 1298.68268号
[31] Theodoros Evgeniou、Charles A.Michelli和Massimiliano Pontil。使用内核方法学习多个任务。机器学习研究杂志,6:615-6372005·Zbl 1222.68197号
[32] 范荣恩、张凯伟、谢卓奎、王祥瑞和林志仁。LIBLINEAR:大型线性分类库。《机器学习研究杂志》,9:1871-18742008·Zbl 1225.68175号
[33] Chelsea Finn、Pieter Abbeel和Sergey Levine。用于快速适应深层网络的模型认知元学习。Doina Precup和Yee Whye Teh,《国际机器学习会议》编辑,《机器学习研究进展》第70卷,第1126-1135页,2017年。
[34] 庄干、杨天宝和龚伯清。学习属性等于多源域泛化。2016年6月,IEEE计算机视觉和模式识别会议(CVPR)。
[35] 帕斯卡·日尔曼(Pascal Germain)、阿默里·哈布拉德(Amaury Habrard)、弗兰·科伊斯·拉维奥莱特(Franöcois Laviolette)和艾米莉·莫万特(Emilie Morvant)。一种新的贝叶斯域适应观点。机器学习国际会议,JMLR研讨会和会议记录第48卷,第859-868页,2016年。
[36] 穆罕默德·吉法里(Muhammad Ghifary)、W.Bastiaan Kleijn、张梦洁(Mengjie Zhang)和大卫·巴尔杜齐(David Balduzzi)。多任务自动编码器目标识别领域泛化。2015年IEEE国际计算机视觉会议,第2551-2559页。
[37] 穆罕默德·吉法里(Muhammad Ghifary)、大卫·巴尔杜齐(David Balduzzi)、W.Bastiaan Kleijn和张梦洁(Mengjie Zhang)。分散成分分析:用于领域适应和领域泛化的统一框架。IEEE模式分析和机器智能汇刊,39(7):1411-14302017。
[38] 龚明明(Mingming Gong)、张坤(Kun Zhang)、刘铜梁(Tongliang Liu)、陶大成(Dacheng Tao)、克莱克·格雷摩尔(Clark Glymour)和伯恩哈德·施科尔科普夫(Bernhard Sch¨olkopf)。具有条件可转移组件的域适配。2016年,在机器学习国际会议上,第2839-2848页。
[39] 阿瑟·格雷顿(Arthur Gretton)、卡斯滕·博格沃德(Karsten Borgwardt)、马尔特·拉什(Malte Rasch)、伯恩哈德·施奥尔科普夫(Bernhard Sch¨olkopf)和亚历山大·斯莫拉(Alexander Smola)。用于比较分布的内核方法。R.Holte和A.Howe,编辑,第22届AAAI人工智能会议,第1637-16412007a页。
[40] 阿瑟·格雷顿(Arthur Gretton)、卡斯滕·博格沃德(Karsten Borgwardt)、马尔特·拉什(Malte Rasch)、伯恩哈德·施奥尔科普夫(Bernhard Sch¨olkopf)和亚历山大·斯莫拉(Alexander Smola)。两样本问题的核方法。在B.Sch¨olkopf、J.Platt和T.Hoffman,编辑,《神经信息处理系统进展》19,第513-520页,2007b。
[41] Thomas Grubinger、Adriana Birlutiu、Holger Sch¨oner、Thomas Natschl¨ager和Tom Heskes。基于传递分量分析的领域泛化。I.Rojas、G.Joya和A.Catala主编,《计算智能进展》,人工神经网络国际工作会议,计算机科学讲义第9094卷,第325-334页。施普林格国际出版公司,2015年。
[42] 彼得·霍尔(Peter Hall)。关于混合比例的非参数估计。《皇家统计学会杂志》,43(2):147-1561981年·Zbl 0472.62052号
[43] Cho-Jui Xieh、Kai-Wei Chang、Chih-Jen Lin、S.Sathiya Keerthi和S.Sundarararajan。一种用于大规模线性SVM的双坐标下降方法。在机器学习国际会议上,第408-415页。ACM,2008年。
[44] 胡寿波、张坤、陈志堂和陈来婉。通过多域判别分析进行域泛化。Amir Globerson和Ricardo Silva主编,《人工智能中的不确定性》,2019年。
[45] 黄嘉元、亚历山大·斯莫拉、亚瑟·格雷顿、卡斯滕·博格沃德和伯恩哈德·肖尔科夫。通过未标记的数据纠正样本选择偏差。神经信息处理系统进展,第601-608页,2007年。
[46] Wittawat Jitkrittum、Arthur Gretton、Nicolas Heess、SM Eslami、Balaji Lakshminarayanan、Dino Sejdinovic和Zolt´an Szab´o。基于内核的实时学习,用于传递期望传播消息。《第三十一届人工智能不确定性会议论文集》,第405-414页。AUAI出版社,2015年。
[47] 托尔斯滕·约阿希姆斯(Thorsten Joachims)。使大规模SVM学习实用化。B.Sch¨olkopf、C.Burges和A.Smola主编,《内核方法的进展——支持向量学习》,第11章,第169-184页。麻省理工学院出版社,马萨诸塞州剑桥,1999年。
[48] 奥拉夫·卡伦伯格:《现代概率的基础》。斯普林格,2002年·Zbl 0996.60001号
[49] Kanamori Takafumi、Shohei Hido和Masashi Sugiyama。直接重要性估计的最小二乘法。机器学习研究杂志,10:1391-14452009·Zbl 1235.62039号
[50] Aditya Khosla、Tinghui Zhou、Tomasz Malisiewicz、Alexei A.Efros和Antonio Torralba。消除数据集偏差的损害。2012年第12届欧洲计算机视觉会议第一卷第158-171页。
[51] 罗恩·科哈维。精度估计和模型选择的交叉验证和引导研究。国际人工智能联合会议,第14卷,第1137-1145页,1995年。
[52] 弗拉基米尔·科尔钦斯基。Rademacher惩罚和结构风险最小化。IEEE信息理论汇刊,47(5):1902-19142001·Zbl 1008.62614号
[53] Patrice Latinne、Marco Saerens和Christine Decaestecker。根据新的先验概率调整分类器的输出可以显著提高分类精度:来自遥感多类问题的证据。在C.Sammut和A.H.Hoffmann,编辑,国际机器学习会议,第298-305页,2001年·Zbl 1026.62065号
[54] Quoc Le、Tam´as Sarl´os和Alex Smola。快餐:近似于对数线性时间的内核扩展。在2013年第28卷国际机器学习会议上,第III-244页。
[55] 李达(Da Li)、杨永新(Yongxin Yang)、宋一泽(Yi-Zhe Song)和蒂莫西(Timothy M Hospedales)。更深入、更广泛和更高级的领域泛化。《IEEE计算机视觉国际会议论文集》,第5542-5550页,2017年。
[56] 李达(Da Li)、杨永新(Yongxin Yang)、宋一泽(Yi-Zhe Song)和蒂莫西(Timothy M Hospedales)。学习泛化:用于领域泛化的元学习。InAAAI人工智能会议,2018年a。
[57] 李浩良、潘嘉林、王世奇和亚历克斯·C·科特。具有对抗性特征学习的领域泛化。在IEEE计算机视觉和模式识别会议上,第5400-54092018b页。
[58] 李亚、龚明明、田新梅、刘铜良和陶大成。基于条件不变表示的领域泛化。InAAAI人工智能会议,2018年c。
[59] 李亚丽、田新美、龚明明、刘亚静、刘铜梁、张坤和陶大成。基于条件不变对抗网络的深度域泛化。《欧洲计算机视觉会议论文集》,第624-6392018d页。
[60] Yishay Mansour、Mehryar Mohri和Afshin Rostamizadeh。领域适应:学习边界和算法。2009年学习理论会议a·Zbl 1242.68238号
[61] Yishay Mansour、Mehryar Mohri和Afshin Rostamizadeh。具有多个源的域自适应。《神经信息处理系统进展》,第1041-1048页,2009b。
[62] 安德烈亚斯·莫勒。线性特征学习的转移边界。机器学习,75(3):327-3502009·Zbl 1470.68146号
[63] 安德烈亚斯·莫雷尔、马西米利亚诺·蓬蒂尔和贝尔纳迪诺·罗梅拉·佩雷斯。多任务和转移学习的稀疏编码。Sanjoy Dasgupta和David McAllester主编,《机器学习国际会议》,机器学习研究进展第28卷,第343-351页,2013年·Zbl 1360.68696号
[64] 安德烈亚斯·莫雷尔、马西米利亚诺·蓬蒂尔和贝尔纳迪诺·罗梅拉·佩雷斯。多任务表征学习的好处。机器学习研究杂志,17(1):2853-28842016·兹比尔1360.68696
[65] Aditya Krishna Menon、Brendan van Rooyen和Nagarajan Natarajan。从具有实例相关噪声的二进制标签学习。机器学习,107:1561-15952018·Zbl 1475.68286号
[66] 赛义德·莫提安(Saeid Motiian)、马克·皮奇里利(Marco Piccirilli)、唐纳德·阿杰罗(Donald A.Adheroh)和吉安弗兰科·多雷托(Gianfranco Doretto)。统一的深度监督域自适应和泛化。2017年IEEE国际计算机视觉会议,第5715-5725页。
[67] Krikamol Muandet、David Balduzzi和Bernhard Sch¨olkopf。通过不变特征表示进行领域泛化。在国际机器学习会议上,机器学习研究进展第28卷,I-10-I-18页,2013年。
[68] Nagarajan Natarajan、Inderjit S.Dhillon、Pradeep Ravikumar和Ambuj Tewari。使用噪音标签的成本敏感学习。机器学习研究杂志,18(155):1-332018。统一资源定位地址http://jmlr.org/papers/v18/15-226.html。 ·Zbl 1467.68151号
[69] Kalyanapuram Rangachari Parthasarathy。度量空间上的概率测度。学术出版社,1967年·Zbl 0469.58006号
[70] 阿纳斯塔西亚·彭蒂纳和克里斯托夫·兰伯特。一个致力于终身学习的PAC-Baysian。Eric P.Xing和Tony Jebara主编,《机器学习国际会议》,机器学习研究进展第32卷,第991-999页,2014年。
[71] Iosif F.Pinelis和Aleksandr Ivanovich Sakhanenko。关于大偏差概率不等式的备注。理论问题。申请。,30(1):143-148, 1985. ·Zbl 0583.60023号
[72] 华金·奎诺罗·坎德拉(Joaquin Quionero-Candela)、Masashi Sugiyama、安东·施瓦霍弗(Anton Schwaighofer)和尼尔·劳伦斯(Neil Lawrence)。机器学习中的数据集转移。麻省理工学院出版社,2009年。
[73] Ali Rahimi和Ben Recht。大型内核机的随机特性。神经信息处理系统进展,第1177-1184页,2007年。
[74] 亚历山德罗·鲁迪和洛伦佐·罗萨斯科。具有随机特征的学习的泛化性质。《神经信息处理系统进展》,第3215-3225页,2017年。
[75] Tyler Sanderson和Clayton Scott。类比例估计及其在多类异常剔除中的应用。InConferencen on Artificial Intelligence and Statistics,2014年。
[76] 克莱顿·斯科特。最优域自适应的广义奈曼-皮尔逊准则。Aur´elien Garivier和Satyen Kale,《算法学习理论》编辑,机器学习研究论文集第98卷,第738-7612019页。
[77] Shiv Shankar、Vihari Piratla、Soumen Chakrabarti、Siddhartha Chaudhuri、Preethi Jyothi和Sunita Sarawagi。通过交叉梯度训练进行跨域泛化。2018年国际学习代表大会。统一资源定位地址https://openreview。网络/论坛?id=r1Dx7fbCW。
[78] Srinagesh Sharma和James W.Cutler。稳健的轨道确定和分类:一种学习理论方法。《星际网络进度报告》,203:1,2015年。
[79] Bharath Sriperumbudur和Zolt´an Szab´o。随机傅里叶特征的最佳速率。《神经信息处理系统进展》,第1144-1152页,2015年。
[80] Bharath Sriperumbudur、Arthur Gretton、Kenji Fukumizu、Bernhard Sch¨olkopf和Gert Lanckriet。Hilbert空间嵌入和概率度量。机器学习研究杂志,11:1517-15612010·Zbl 1242.60005号
[81] 英戈·斯坦沃特(Ingo Steinwart)和安德烈亚斯·克里斯特曼(Andreas Christmann)。支持向量机。施普林格,2008年·Zbl 1203.68171号
[82] 阿莫斯·J·斯托基。当培训和测试集不同时:描述学习迁移。机器学习中的InDataset Shift,第3-28页。麻省理工学院出版社,2009年。
[83] 铃山正树、铃木太极、中岛信一、鹿岛久志、保罗·冯·B–unau和川本茂。协变量移位自适应的直接重要性估计。统计数学研究所年鉴,60:699-7462008·Zbl 1294.62069号
[84] Danica J.Sutherland和Jeff Schneider。关于随机傅里叶特征的误差。《人工智能中的不确定性》,第862-871页,2015年。
[85] 佐尔特安·萨布奥(Zolt´an Szab´o)、巴拉思·斯里普鲁姆布杜尔(Bharath K Sriperumbudur)、巴纳卜(Barnab´as P´oczos)和亚瑟·格雷顿(Arthur Gretton)。分布回归的学习理论。机器学习研究杂志,17(1):5272-53112016·Zbl 1392.62124号
[86] 德克·塔什。先验概率偏移的Fisher一致性。《机器学习研究杂志》,18:1-322017年·兹比尔1441.62174
[87] 塞巴斯蒂安·特龙。学习第n件事比学习第一件容易吗?神经信息处理系统进展,第640-646页,1996年。
[88] D.迈克尔·蒂特林顿。混合比例的最小距离非参数估计。《皇家统计学会杂志》,45(1):37-461983年·Zbl 0563.62027号
[89] 乔恩·托德林(Joern Toedling)、彼得·莱恩(Peter Rhein)、理查德·拉泰(Richard Ratei)、莱昂尼德·卡拉瓦尤(Leonid Karawajew)和雷纳·斯潘(Rainer Spang)。流式细胞仪读数中细胞群的自动硅内检测及其在白血病疾病监测中的应用。BMC生物信息学,7:2822006。
[90] Athanasios Tsanas、Max A.Little、Patrick E.McSharry和Lorraine O.Ramig。通过无创语音测试准确远程监测帕金森氏病进展。IEEE生物医学工程学报,57(4):884-8932010。
[91] Ioannis Tsochantaridis、Thorsten Joachims、Thomas Hofmann和Yasemin Altun。结构化和相互依赖输出变量的大幅度方法。机器学习研究杂志,6(9月):1453-14842005·兹比尔1222.68321
[92] Brendan van Rooyen和Robert C.Williamson。带有腐败标签的学习理论。机器学习研究杂志,18(228):1-502018·Zbl 1473.68174号
[93] 王浩涵、何泽雪、扎卡里·C·利普顿和埃里克·P·兴。通过投射表面统计数据来学习稳健的表示法。2019年国际学习代表大会。统一资源定位地址https://openreview.net/forum?id=rJEjjoR9K7。
[94] 詹娜·维恩斯。患者自适应异位节拍分类的机器学习。2010年,麻省理工学院电气工程与计算机科学系硕士论文。
[95] 克里斯托弗·威廉姆斯和马蒂亚斯·西格。使用Nystr–om方法加速内核机器。神经信息处理系统进展,第682-688页,2001年。
[96] 郑旭、文丽、李牛和董旭。利用潜在域中的低秩结构进行域泛化。欧洲计算机视觉会议,第628-643页。斯普林格,2014年。
[97] 刘洋、史蒂夫·汉内克和杰米·卡博内尔。迁移学习理论及其在主动学习中的应用。机器学习,90(2):161-1892013·Zbl 1260.68352号
[98] 杨晓林、金世英和埃里克·P·星。具有联合稀疏性约束的异构多任务学习。《神经信息处理系统进展》,第2151-2159页,2009年。
[99] Yu Yao Liang和Csaba Szepesvari。协变量移位下的核均值匹配分析。机器学习国际会议,第607-614页,2012年。
[100] 比安卡·扎德罗兹尼。在样本选择偏差下学习和评估分类器。2004年国际机器学习会议。
[101] 张坤、Bernhard Sch¨olkopf、Krikamol Muandet和王志坤。目标和条件转移下的领域适应。在2013年国际机器学习会议上,第819-827页。
[102] 张坤、龚明明和肖尔科夫。多源域适应:因果观点。InAAAI人工智能会议,第3150-3157页。AAAI出版社,2015年。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。