×

兹马思-数学第一资源

自动机器学习框架的基准和调查。(英语) Zbl 07328086
摘要:机器学习已经成为我们日常生活中许多方面的重要组成部分。然而,构建性能良好的机器学习应用程序需要高度专业化的数据科学家和领域专家。自动机器学习(AutoML)旨在减少对数据科学家的需求,使领域专家能够自动构建机器学习应用程序,而无需大量的统计和机器学习知识。本文是对当前AutoML方法的综述,并结合一个流行的AutoML框架在实际数据集上的基准测试。在选定的评估框架的驱动下,我们总结和回顾了有关构建ML管道的每个步骤的重要AutoML技术和方法。所选的AutoML框架是在已建立的AutoML基准套件中的137个数据集上评估的。
理学硕士:
68Txx型 人工智能
关键词:
机器学习;计划
PDF格式 双歧杆菌 引用
全文: 内政部
参考文献:
[1] 阿拉,A。M、 和范德沙尔,M(2018年)。自动诊断:基于结构核学习的贝叶斯优化自动临床预后建模。机器学习国际会议,1139-148。
[2] Alia,S.和Smith Miles,K。A(支持向量机自动核选择的元学习方法。神经计算,70(1-3),173-186。
[3] 安德森,R。L(1953年)。《寻找最佳操作条件的最新进展》,美国统计协会杂志,48(264),789-798。
[4] 艾莉亚,P(2018年)。完整的机器学习管道。。可用网址:http://www。kaggle.com/pouryaayria/a-complete-ml-pipeline-tutorial-acu-86。
[5] 百度(2018)。埃兹德尔。。可用网址:http://ai.baidu.com/ezdl/。
[6] Balaji,A.和Allen,A(2018年)。自动机器学习框架的基准测试。arXiv预印本arXiv:1808.06492。
[7] 班扎夫,W.,诺丁,P.,凯勒,R。E、 和弗朗索内。D(基因规划:导论。摩根考夫曼·Zbl 0893.68117
[8] Belotti,P.,Kirches,C.,Leyffer,S.,Linderoth,J.,Luedtke,J.和Mahajan,A(2013年)。混合整数非线性优化。数学学报,22,1-131·Zbl 1291.65172
[九] Bengio,Y.,Courville,A.和Vincent,P(2013年)。表示学习:回顾与新视角。模式分析与机器智能IEEE汇刊,35(8),1798-1828。
[10] Bergstra,J.,Bardenet,R.,Bengio,Y.和K'egl,B(2011年)。超参数优化算法。神经信息处理系统国际会议,2546-2554页。
[11] Bergstra,J.和Bengio,Y(2012年)。随机搜索超参数优化。机器学习研究杂志,13281-305·兹布1283.68282
[12] Bergstra,J.,Yamins,D.和Cox,D。D(2013年)。Hyperopt:优化机器学习算法超参数的python库。在科学会议上,第13-20页。
[13] Bialli,B.,Abell'o,A.和Aluja Banet,T(2017年)。论OpenML中元特征的预测能力。国际应用数学与计算机科学杂志,27(4),697-712。
[14] Bischl,B.,Casalicchio,G.,Feurer,M.,Hutter,F.,Lang,M.,Mantovani,R。G、 ,范瑞恩,J。N、 和范肖伦,J(2017年)。OpenML基准测试套件和OpenML100。arXiv预印本arXiv:1708.03731v1。
[15] Bischl,B.,Casalicchio,G.,Feurer,M.,Hutter,F.,Lang,M.,Mantovani,R。G、 ,范瑞恩,J。N、 和范肖伦,J(2019).OpenML Benchmarking Suites.arXiv预印本arXiv:1708.03731v2。arXiv:1708.03731。
[16] 博图,L(2012年)。随机梯度下降技巧。内部网络,《交易技巧》,重新加载,430-445页。斯普林格。
[17] 布雷曼,L(2001年)。随机森林。机器学习,45(1),5-32·Zbl 1007.68152号
[18] 布雷曼,L.,弗里德曼,J.,斯通,C。J、 ,奥尔森(分类和回归树。查普曼和霍尔·62041.ZB041
[19] 布鲁克,E.,科拉,V。M、 和de Freitas,N(2010年)。成本函数的贝叶斯优化教程,应用于主动用户建模和分层强化学习。arXiv预印本arXiv:1012.2599。
[20] Browne,C.,Powley,E.,白宫,D.,Lucas,S.,Member,S.,Cowling,P。一、 ,Rohlfshagen,P.,Tavener,S.,Perez,D.,Samothrakis,S.和Colton,S(2012年)。蒙特卡罗树搜索方法综述。计算智能和游戏中人工智能的IEEE汇刊,4(1),1-49。
[21] 布亚,R(高性能集群计算:体系结构与系统,第一卷,普伦蒂斯大厅。
[22] 陈,T(2017年)。顾问。。可用网址:http://github.com/tobegit3hub/advisor。
[23] O.沙佩尔、瓦普尼克、V.布斯克、O.和慕克吉S(2002年)。为支持向量机选择多个参数。机器学习,46131-159·Zbl 0998.68101
[24] Chen,B.,Wu,H.,Mo,W.,Chattopadhyay,I.和Lipson,H(2018年)。Autostacker:一个组合进化学习系统。创新与进化计算会议,第402-409页。
[25] 陈培伟,王建英,李海梅(2004年)。基于遗传算法的支持向量机模型选择。国际神经网络联席会议。
[26] 朱,X.,伊利亚斯,I。F、 ,Krishnan,S.和Wang,J(2016年)。数据清理:概述和新出现的挑战。国际数据管理会议,第2201-2206页。
[27] 朱,X.,莫科斯,J.,伊利亚斯,I。F、 ,Ouzzani,M.,Papotti,P.,Tang,N.和Ye,Y(2015年)。KATARA:一个由知识库和众包驱动的数据清理系统。INAC国际数据管理会议,第1247-1261页。
[28] Claesen,M.,Simm,J.,Popovic,D.,Moreau,Y.和De Moor,B(2014年)。使用Optunity.arXiv预印本arXiv:1412.1114轻松搜索超参数。
[29] Clouder,A.(2018年)。利用AutoML缩短机器学习开发周期学习http://www.alibabacloud.com/blog/shorting-machine-learning-development-cycle-with-automl_。
[30] 科埃罗,C。A。C、 ,拉蒙,G。B、 和Van Veldhuizen,D。A(解决多目标问题的进化算法,第5卷。斯普林格·Zbl 1142.90029号
[31] Das,P.,Ivkin,N.,Bansal,T.,Rouesnel,L.,Gautier,P.,Karnin,Z.,Dirac,L.,Ramakrishnan,L.,Perunicic,A.,Shcherbatyi,I.,Wu,W.,Zolic,A.,Shen,H.,Ahmed,A.,Winkelmolen,F.,Miladinovic,M.,Archembeau,C.,Tang,A.,Dutt,B.,Grao,P.和K.Venkateswar(2020年)。Amazon SageMaker Autopilot:scale Piali的白盒AutoML解决方案。端到端机器学习的InData管理,第1-7页。
[32] 达斯Dˆores,S。C。N、 ,Soares,C.和Ruiz,D(2018年)。基于Bandit的自动机器学习。巴西智能系统会议。
[33] Dash,M.和Liu,H(1997年)。分类的特征选择。智能数据分析,1131-156。
[34] 德米兰达,P。B、 ,普鲁德安西奥,R。B、 ,德卡瓦略,A。C。P、 和苏亚雷斯(2012年)。元学习与粒子群算法相结合用于支持向量机参数选择的实验研究。计算科学及其应用国际会议,第562-575页。
[35] 德萨,a。G。C、 ,平托,W。J。G。S、 奥利维拉,L。O。五。B、 和帕帕,G。L(2017年)。诀窍:一个基于语法的框架,用于自动演化分类管道。欧洲遗传规划会议,第10196卷,第246-261页。
[36] Dean,J.和Ghemawat,S(2008年)。MapReduce:大型机群上简化的数据处理。ACM通讯,51(1),107-113。
[37] Desautels,T.,Krause,A.和Burdick,J。W(2014年)。高斯过程Bandit优化的并行探索与开发权衡。《机器学习研究杂志》,154053-4103·Zbl 1312.62036
[38] 丁斯莫尔(2016年)。自动机器学习:历史很短。。网址:http://blog.datarobot.com/automated-machine-learning-short-history。
[39] 多姆汉,T.,斯普林根伯格,J。T、 和赫特,F(2015年)。利用学习曲线外推加速深层神经网络超参数自动优化。国际人工智能联席会议,第3460-3468页。
[40] Dor,O.和Reich,Y(2012年)。通过特征发现加强学习算法。信息科学,189176-190。
[41] 金·多斯韦尔希(2017年)。迈向可解释机器学习的严谨科学。arXiv预印本arXiv:1702.08608。
[42] Drori,I.,Krishnamurthy,Y.,de Paula Lourenco,R.,Rampin,R.,Kyunghyun,C.,Silva,C.和Freire,J(2019年)。使用基于模型的强化学习和语法的流水线综合自动机器学习。国际机器学习研讨会。
[43] 德罗里,I.,克里希纳穆尔蒂,Y.,兰平,R.,卢伦科,R。d。P、 小野,J。P、 ,Cho,K.,Silva,C.和Freire,J(2018年)。AlphaD3M:机器学习流水线综合。国际机器学习研讨会。
[44] Eduardo,S.和Sutton,C(2016年)。使用完整性约束的概率模型进行数据清理。内部信息处理系统。
[45] 埃菲莫娃,V.,菲尔琴科夫,A.和沙拉莫夫,V(2017年)。通过强化学习快速自动选择学习算法及其超参数。国际机器学习研讨会。
[46] Eggensperger,K.,Feurer,M.,Hutter,F.,Bergstra,J.,Snoek,J.,Hoos,H.和Leyton Brown,K(2013年)。为评估超参数的贝叶斯优化提供一个经验基础。InNIPS贝叶斯优化理论与实践研讨会。
[47] Eggensperger,K.,Hutter,F.,Hoos,H。H、 和莱顿布朗,K(2015年)。通过代理对超参数优化器进行有效的基准测试。InAAAI人工智能会议,第1114-1120页。
[48] Eggensperger,K.,Lindauer,M。T、 ,胡,H。H、 ,Hutter,F.和Leyton Brown,K(2018年)。通过基于模型的代理对算法配置过程进行有效的基准测试。机器学习,107,15-41·Zbl 1457.68341号
[49] Elshawi,R.,Maher,M.和Sakr,S(2019年)。自动机器学习:最新技术和开放挑战。arXiv预印本arXiv:1906.02287。
[50] 埃斯卡兰特,H。J、 蒙特斯,M.和路易斯,V(2009年)。作者身份验证的粒子群模型选择。伊比利亚美洲模式识别大会,第563-570页。
[51] Fabris,F.和Freitas,A。A(2019年)。auto-sklearn自动学习机床过盈分析。《机器学习、优化与数据科学》,第11943卷,第508-520页。斯普林格国际出版社。
[52] 福克纳,S.,克莱恩,A.和赫特,F(2018年)。BOHB:稳健有效的大规模超参数优化。国际机器学习会议,1437-1446页。
[53] 弗恩·安迪斯·戈迪诺,M。G、 ,帕克,C.,金,N.-H.,和哈夫特卡,R。T(2016年)。多理想模型回顾。arXiv预印本arXiv:1609.07196。
[54] Feurer,M.,Eggensperger,K.,Falkner,S.,Lindauer,M.和Hutter,F(2018年)。2018年AutoML挑战赛的实用自动化机器学习。机器学习国际会议AutoML研讨会。
[55] 费勒M.和赫特F(2018年)。AutoML的进一步自动化。国际机器学习研讨会。
[56] Feurer,M.,Klein,A.,Eggensperger,K.,Springenber,J。T、 布鲁姆M.和赫特F(2015a)。高效和健壮的自动机器学习。国际神经信息处理系统会议,2755-2763页。
[57] 费勒,M.,斯普林恩伯格,J。T、 和赫特,F(2015年b)。通过元学习初始化贝叶斯超参数优化。全国人工智能会议,第1128-1135页。
[58] 弗雷泽,P。一(2018年)。贝叶斯优化教程。arXiv预印本arXiv:1807.02811,第1-22页。
[59] Friedman,L.和Markovitch,S(2015年)。基于知识学习的递归特征生成。人工智能研究杂志,1,3-17。
[60] 福纳加,K.和霍斯特勒,L。D(密度函数梯度的估计及其在模式识别中的应用。IEEE信息论汇刊,21(1),32-40·Zbl 0297.62025
[61] Galhardas,H.,Florescu,D.,Shasha,D.和Simon,E(2000年)。AJAX:一种可扩展的数据清理工具。国际数据管理会议,第590-596页。
[62] Gama,J.和Braddil,P(2000年)。分类算法的特征。人工智能研讨会。
[63] 加里多·默希安,E。C、 和Hern'andez Lobato,D(2018年)。高斯过程贝叶斯优化中整值变量的处理。国际机器学习研讨会,第1-18页。
[64] Gaudel,R.和Sebag,M(2010年)。功能选择作为一个单人游戏。国际机器学习会议,第369页。
〔65〕 Geiger,A.,Lenz,P.和Urtasun,R(2012年)。我们准备好自动驾驶了吗?KITTI Vision基准套件。计算机视觉与模式识别的差异。
[66] Ghalab,M.,Nau,D.和特拉弗索,P(自动化规划:理论与实践。摩根考夫曼出版社·Zbl 1074.68613号
[67] Gijsbers,P.,LeDell,E.,Thomas,J.,Poirier,S.,Bischl,B.和Vanshoren,J(2019年)。一个开源的AutoML基准测试。国际机器学习研讨会。
[68] Gil,Y.,Honaker,J.,古普塔,S.,Ma,Y.,奥拉齐奥,V。D、 ,Garijo,D.,Gadewar,S.,Yang,Q.和Jahanshad,N(2019年)。面向人引导的机器学习。智能用户界面国际会议。
〔69〕 吉尔,Y.,姚,K.-T.,拉特纳卡,V.,加里霍,D.,斯特格,G。五、 ,Szekly,P.,Brekelmans,R.,Kejriwal,M.,Luo,F.和Huang,I.-H(2018年)。P4ML:一个用于自动机器学习的基于阶段性能的流水线规划器。国际机器学习研讨会,第1-8页。
[70] Ginsbourger,D.,Janusevskis,J.和Le Riche,R(2010年a)。处理基于并行高斯过程的全局优化中的异步性。。可用网址:http://hal。archives-ouvertes.fr/hal-00507632。
[71] Ginsbourger,D.,Le Riche,R.和Carraro,L(2010年b)。Kriging非常适合于并行优化。昂贵优化问题中的不可计算智能,131-162页。斯普林格柏林海德堡。
[72] Golovin,D.,Solnik,B.,Moitra,S.,Kochanski,G.,Karro,J.和Sculley,D(2017年)。googlevizier:一个黑盒优化服务。国际知识发现与数据挖掘国际会议,1487-1495页。
[73] 戈梅斯,T。A、 ,Prudˆcncio,R。B、 ,苏亚雷斯,C.,罗西,A。五十、 和卡瓦略,A(2012年)。结合元学习和搜索技术为支持向量机选择参数。神经计算,75(1),3-13。
[74] 古德费罗,I.,本吉奥,Y.和库维尔,A(2016年)。表象学习。《独立学习》,第15章,麻省理工学院出版社·Zbl 1373.68009
[75] 谷歌有限责任公司(2019年)。人工智能解释白皮书。谷歌公司技术代表。
[76] 高尔,J。C(1971年)。一般的相似系数及其一些特性。生物特征学,27(4),857-871。
[77] 古斯塔夫森,L(Bayesian Tuning and Bandits:AutoML的可扩展、开源库。博士。论文,麻省理工学院。
[78] 盖恩,I.,贝内特,K.,考利,G.,埃斯卡兰特,H。J、 ,Escalera,S.,Ho,T。K、 ,Maci'a,N.,Ray,B.,Saeed,M.,Statnikov,a.和Viegas,E(2015年)。2015年ChaLearn AutoML挑战赛的设计。神经网络国际联席会议,第1-8页。
[79] 盖永,I.,查巴尼,I.,埃斯卡兰特,H。J、 ,Escalera,S.,Jajetic,D.,Lloyd,J。R、 ,Maci´a,N.,Ray,B.,Romaszko,L.,Sebag,M.,Statnikov,a.,Treguer,S.和Viegas,E(2016年)。简评Chaleran AutoML挑战:无需人工干预的任何时间任何数据集学习。国际机器学习研讨会,第21-30页。
[80] 盖永,I.和Elisseeff,A(2003年)。变量和特征选择简介。机器学习研究杂志,31157-1182·Zbl 1102.68556
[81] Guyon,I.,Saffari,A.,Dror,G.和考利,G(2008年)。2007年IJCNN不可知论学习与先验知识挑战的分析。神经网络,21(2-3),544-550·Zbl 1254.68207
[82] Guyon,I.,Sun Hosoya,L.,Boull'e,M.,Escalante,H。J、 ,Escalera,S.,Liu,Z.,Jajetic,D.,Ray,B.,Saeed,M.,Sebag,M.,Statnikov,A.,Tu,W.-W.,和Viegas,E(2018年)。2015-2018年AutoML挑战系列分析。听觉机器学习:方法、系统、挑战。斯普林格·维拉格。
[83] 盖永,I.,韦斯顿,J.和巴恩希尔,S(2002年)。利用支持向量机进行癌症分类的基因选择。机器学习,46389-422·Zbl 0998.68111
[84] H2O.ai(2018年)。可提供H2O无人驾驶ai网址http://www.h2o.ai/products/h2o无人驾驶ai/。
[85] 人工授精(2019年)。自动水溶液。。可用网址:docs.h2o.ai/h2o/latest-stable/水文档/automl.html。
[86] 何,X,赵,K.和朱,X(2019年)。AutoML:最新技术的调查。arXiv预印本arXiv:1908.00709。
[87] 赫尔斯坦,J。M(2008年)。大型数据库的定量数据清理。联合国欧洲经济委员会。
[88] Hennig,P.和Schuler,C。J(2012年)。信息有效全局优化的熵搜索。机器学习研究杂志,131809-1837·Zbl 1432.65073
[89] 赫斯特曼,J。Y、 ,考西,L.,库宾斯基,M。A、 ,巴雷特,H。H、 和弗伦利德,L。R(2010年)。收缩网格搜索算法的最大似然估计。核科学IEEE汇刊,57(3),1077-1084。
[90] 霍夫曼,M。W、 ,Shahraria,B.和de Freitas,N(2014年)。基于模型的bandit优化中的相关性和预算约束及其在自动机器学习中的应用。《自然情报与统计》,第365-374页。
[91] 徐春伟、张建中、林聪杰(支持向量分类实用指南。。
[92] 休伯曼,B。A、 ,卢卡斯,右。M、 和霍格,T(1997年)。一种解决复杂计算问题的经济学方法。《科学》,275(5296),51-54。
[93] 赫特,F.,霍斯,H。H、 和莱顿布朗,K(2011年)。基于序列模型的通用算法配置优化。国际学习与智能优化会议,第507-523页。
[94] 赫特,F.,霍斯,H。H、 和莱顿布朗,K(2012年)。并行算法配置。学习与智能优化国际会议,第7219卷·Zbl 1192.68831
[95] 赫特,F.,霍斯,H。H、 和莱顿布朗,K(2014年)。一种评估超参数重要性的有效方法。国际机器学习会议,第754-762页。
[96] 赫特,F.,霍斯,H。H、 ,Leyton Brown,K.和St¨utzle,T(2009年)。ParamILS:自动算法配置框架。人工智能研究杂志,36267-306·Zbl 1192.68831
[97] Hutter,F.,Kotthoff,L.和Vanschoren,J(自动化机器学习:方法、系统、挑战。斯普林格。
[98] Hutter,F.,Kotthoff,L.和Vanschoren,J(2018年b)。超参数优化。自动机器学习:方法,系统,挑战,第3-38页。
[99] Jamieson,K.和Talwalkar,A(2015年)。非随机最优臂辨识与超参数优化。《自然情报与统计》,第240-248页。
[100] 杰弗瑞,S。R、 ,阿隆索,G.,富兰克林,M。J、 ,Hong,W.和Widom,J(2006年)。传感器数据清理的声明性支持。普适计算国际会议,第83-100页。
[101] Kandasamy,K.,Krishnamurthy,A.,Schneider,J.和P'oczos,B(2018年)。通过汤普森抽样Kirthevasan进行并行贝叶斯优化。国际人工智能与统计会议,第133-142页。
[102] 康特,J。M、 和Veeramachaneni,K(2015年)。深度特征综合:实现数据科学工作的自动化。国际数据科学与高级分析会议,第1-10页。
[103] 凯兹,G.,申,E。C。R、 和宋德(2017年)。ExploreKit:自动特征生成和选择。国际数据挖掘会议,第979-984页。
[104] Kaul,A.,Maheshwary,S.和普迪,V(2017年)。自动学习-自动生成和选择特征。国际数据挖掘会议。
[105] K'egl,B(2017年)。如何建立数据科学管道网址:www.ttps。kdnuggets.com/2017/07/build-data-science-pipeline.html。
[106] Kennedy,J.和Eberhart,R(1995年)。粒子群优化。国际神经网络会议,1942-1948页。
[107号] 哈亚蒂,Z.,伊利亚斯兹,I。F、 ,Jindal,A.,Madden,S.,Ouzzani,M.,Papotti,P.,Quiane-Ruiz,J。A、 ,Tang,N.和Yin,S(2015年)。BigDansing:一个大数据清理系统。在ACM国际数据管理会议,第1215-1230页。
[108] Khurana,U.,Samulowitz,H.和Turaga,D(2018a年)。自动功能工程集成。国际机器学习研讨会。
[109号] Khurana,U.,Samulowitz,H.和Turaga,D(2018年b)。基于强化学习的预测建模特征工程。InAAAI人工智能会议,第3407-3414页。
[110] 库拉纳,U.,图拉加,D.,萨穆洛维茨,H.和帕塔斯拉蒂,S(2016年)。Cognito:用于监督学习的自动化特征工程。国际数据挖掘会议,第1304-1307页。
[111] Klein,A.,福克纳,S.,巴特尔斯,S.,Hennig,P.和Hutter,F(2016年)。大数据集上机器学习超参数的快速贝叶斯优化。《自然情报与统计》,第528-536页·Zbl 1421.62027
[112] 克莱恩,A.,福克纳,S.,曼苏尔,N.和赫特,F(2017a)。RoBO:Python中一个灵活而健壮的Bayesian优化框架。InNIPS贝叶斯优化研讨会。
[113] 克莱恩,A.,福克纳,S.,斯普林根伯格,J。T、 和赫特,F(2017b年)。贝叶斯神经网络学习曲线预测。学习表征国际会议,第1-16页。
[114] Koch,P.,Golovidov,O.,Gardner,S.,Wujek,B.,Griffin,J.和Xu,Y(2018年)。Autotune:一个用于超参数优化的无派生优化框架。inacom知识发现和数据挖掘国际会议,第443-452页。
[115] Kocsis,L.和Szepesv'ari,C(2006年)。基于班迪特的蒙特卡洛规划。欧洲机器学习会议,第282-293页。
[116] Kohavi,R.和John,G。H(1995年)。通过最小化估计误差自动选择参数。国际机器学习会议,304-312页。
[117] Komer,B.,Bergstra,J.和Eliasmith,C(2014年)。hyperoptsklearn:Scikit学习的自动超参数配置。国际机器学习研讨会,2825-2830页。
[118] 科诺涅科,I(1994年)。估计属性:救济的分析和扩展。欧洲机器学习会议。
[119] 科特霍夫,L.,桑顿,C.,霍斯,H。H、 ,Hutter,F.和Leyton Brown,K(2016年)。AutoWEKA 2.0:WEKA中的自动模型选择和超参数优化。机器学习研究杂志,17,1-5。
[120] 科扎,J。R(遗传程序设计:通过自然选择对计算机进行编程。麻省理工学院出版社·Zbl 0850.68161
〔121〕 Krishnan,S.,Wang,J.,Franklin,M。J、 ,Goldberg,K.,Kraska,T.,Milo,T.和Wu,E(2015年)。SampleClean:脏数据的快速可靠分析。IEEE数据工程公报,38(3),59-75。
[122号] Krishnan,S.,Wang,J.,Wu,E.,Franklin,M。J、 ,戈德伯格,K(2016年)。ActiveClean:统计建模的交互式数据清理。VLDB基金会的进展,第12卷,第948-959页。
[123号] Krishnan,S.和Wu,E(2019年)。AlphaClean:自动生成数据清理管道。arXiv预印本arXiv:1904.11827。
[124] Krizhevsky,A.、Sutskever,I.和Hinton,G。E(2012年)。用深卷积神经网络进行图像网络分类。神经信息处理系统国际会议,第一卷,第1097-1105页。
[125] Lacoste,A.,Larochelle,H.,Marchand,M.和Laviolette,F(2014年)。基于序列模型的集成优化。《人工智能的不确定性》,第440-448页。
[126] 莱克,B。M、 ,乌尔曼,T。D、 ,特南鲍姆,J。B、 和格什曼,S。J(2017年)。学习机器和行为科学。
[127号] 林,H。T、 ,Thiebaut,J.-M.,Sinn,M.,Chen,B.,Mai,T.和O(2017年)。用于在关系数据库中自动化特征工程的一键式机器。arXiv预印本arXiv:1706.00327。
[128] Langevin,S.,Jonker,D.,白求恩,C.,Coppersmith,G.,Hilland,C.,Morgan,J.,Azunne,P.和Gawrillow,J(2018年)。Distil:一个面向主题专家的混合主动模型发现系统。国际机器学习研讨会。
[129] 拉瓦莱,S。M、 ,布拉尼基,M。S、 和林德曼,S。R(2004年)。经典网格搜索与概率路线图的关系,《国际机器人研究杂志》,23673-692。
[130] 莱文施泰因,V。一(1966年)。能够修正删除、插入和反转的二进制代码。《苏联物理学doklady》,10(8),707-710。
[131号] 莱夫斯基,J。C、 ,杜兰德,A.,加涅,C.,和萨布林,R(2017年)。条件超参数空间的贝叶斯优化。国际神经网络联席会议,第286-293页。
[132] Li,L.,Jamieson,K.,Rostamizadeh,A.,Gonina,E.,Hardt,M.,Recht,B.和Talwalkar,A(2020年)。大规模并行超参数调谐系统。在机器学习和系统。
[133] 李,L.,杰米森,K。G、 ,DeSalvo,G.,Rostamizadeh,A.和Talwalkar,A(2016年)。高效的超参数优化和无限多的武装匪徒。arXiv预印本arXiv:1603.06560·中银06982941
[134号] 李,L.,杰米森,K。G、 ,DeSalvo,G.,Rostamizadeh,A.和Talwalkar,A(2018年)。超带:一种新的基于Bandit的超参数优化方法。机器学习研究杂志,18,1-52·中银06982941
[135] 林道尔M.和赫特F(2018年)。基于模型的算法配置的热启动。InAAAI人工智能会议,第1355-1362页。
[136] 罗,G(2016年)。机器学习算法和超参数值自动选择方法综述。健康信息学和生物信息学中的网络建模分析,5(1),1-15。
[137] Maclaurin,D.,Duvenaud,D.和Adams,R。P(2015年)。基于梯度的可逆学习超参数优化。国际机器学习会议,2113-2122页。
[138] 玛格丽特,D(2009年)。在任意域中进行可证明正确的特征选择。内部信息处理系统,1240-1248页。
[139号] Markovitch,S.和Rosenstein,D(2002年)。使用一般建构函式产生特徵。机器学习,49(1),59-98·Zbl 1014.68068
[140] 马龙,O.和摩尔,A(1993年)。Hoefffding Races:加速分类和函数逼近的模型选择搜索.神经信息处理系统进展,第59-66页。
[141] 麦格逊,H(2019年)。HyperparameterHunter..可用网址:http://github.com/HunterMcGushion/hyperparameter_-hunter。
[142号] 北卡罗来纳州梅恩绍森和P(2010年)。稳定性选择,《皇家统计学会杂志》,72(4),417-473。
[143] Mej´a-Lavalle,M.,Sucar,E.,和Arroyo,G(2006年)。基于感知器神经网络的特征选择。国际数据挖掘特征选择研讨会,第131-135页。
[144] 梅萨乌德,I。B、 ,El Abed,H.,M¨argner,V.和Amiri,H(2011年)。大型历史文献数据库预处理框架的设计。历史文献影像与处理研讨会,177-183页。
[145] Mohr,F.,Wever,M.和H?ullermeier,E(2018年)。机器学习计划:通过分层计划进行自动机器学习。机器学习,1071495-1515·Zbl 06990119
[146号] Momma,M.和Bennett,K。P(2002年)。支持向量回归模型选择的模式搜索方法。国际数据挖掘会议,第261-274页。
[147] Motoda,H.和Liu,H(2002年)。特征选择、提取和构造。信息与计算机机械研究所通信,5,67-72。
[148] 穆诺斯,R(2014年)。从Bandits到montecarlo树搜索:乐观原则在优化和规划中的应用。邮编:0075·Zbl 1296.91086号
[149号] 纳格珊,F.,萨穆洛维茨,H.,胡拉纳,U.,哈利勒,E。B、 和图拉加(2017年)。学习特征工程分类。国际人工智能联席会议,第2529-2535页。
[150] Nguyen,T.-D.,Maszczyk,T.,Musial,K.,Z–oller,M.-A.和Gabrys,B(2020年)。基于代理模型的虚拟机学习流水线评价。国际智能数据分析研讨会,第352-365页。
[151] 尼克森,T.,奥斯本,M。A、 ,Reece,S.和Roberts,S(2014年)。使用随机算法调整的大数据自动机器学习。arXiv预印本arXiv:1407.7969。
[152] 奥尔森,R。S、 ,巴特利,N.,乌尔巴诺维奇,R。J、 和摩尔,J。H(2016年)。评估用于自动化数据科学的基于树的管道优化工具。创新与进化计算会议,第485-492页。
[153] 奥尔森,R。S、 和摩尔,J。H(2016年)。TPOT:一个基于树的流水线优化工具,用于自动化机器学习。国际机器学习研讨会,第66-74页。
[154] 奥尔森,R。S、 ,乌尔巴诺维奇,R。J、 ,安德鲁斯,P。C、 ,薰衣草,N。A、 ,基德,L。C、 和摩尔,J。H(2016年)。通过基于树的流水线优化实现生物医学数据科学的自动化。进化计算的不应用,123-137页。斯普林格国际出版社。
[155] Opitz,D.和Maclin,R(1999年)。流行的集成方法:实证研究,人工智能研究杂志,11169-198·Zbl 0924.68159
[156] 帕里,P(2019年)。自动ml。。可用网址:http://github.com/crimpsrocks/auto\ml。
[157] 帕尔森,E(1961年)。关于概率密度函数和模式的估计。《数理统计年鉴》,33(3),1065-1076·京保0116.11302
[158] 佩德雷戈萨,F.,瓦罗魁克,G.,格拉姆波特,A.,米歇尔,V.,蒂里安,B.,格里塞尔,O.,布朗德尔,M.,普雷滕霍费尔,P.,韦斯,R.,杜博格,V.,范德普拉斯,J.,帕索斯,A.,库纳佩乌,D.,布鲁彻,M.,佩罗,M.和杜切斯内,E(2011年)。Scikit learn:Python中的机器学习,《机器学习研究杂志》,122825-2830·Zbl 1280.68189
[159] 佩德雷戈萨,F(2016年)。近似梯度超参数优化。国际机器学习会议,第737-746页。
[160] Perrone,V.,Shen,H.,Seeger,M.,Archambeau,C.和Jenaton,R(2019年)。贝叶斯优化的搜索空间学习:超参数转移学习的另一种观点。神经信息处理系统指南32,第12771-12781页,Curran Associates,Inc。
[161] Petri,C。A(1962年),麻省理工学院自动化。博士。论文,汉堡大学。
[162] 波利,R.,兰登,W。B、 ,麦克菲,N。F、 和科扎,J。R(2008年)。遗传规划领域指南。露露网。
[163] 波利卡,R(2006年)。决策中基于集成的系统。IEEE电路与系统杂志,6(3),21-45。
[164] 后,M。J、 ,van der Putten,P.和van Rijn,J。N(2016年)。特征选择有助于分类吗?OpenML中的大规模实验。智能数据分析建议十五,第158-170页。
[165] Press,G.(2016年)。数据科学家最关注的是卫生清洁数据学习http://whatthebigdata.com/2016/05/01/数据科学家把大部分时间花在清理数据上。
[166号] Probst,P.,Boulesteix,A.-L.和Bischl,B(2019年)。可调性:机器学习算法超参数的重要性。机器学习研究杂志,20(53),1-32·Zbl 07049772
[167] Pudil,P.,Novoviˇcov'a,J.和Kittler,J(1994年)。特征选择中的浮动搜索方法。模式识别字母,15(11),1119-1125。
[168号] 派尔,D(数据挖掘的数据准备。摩根考夫曼出版社。
[169] 全明,Y.,孟朔,W.,雨果,J。E、 ,Isabelle,G.,Yi Qi,H.,Yu Feng,L.,魏伟,T.,Qiang,Y.和Yang,Y(2018年)。将人从学习应用中剔除:自动化机器学习的调查。arXiv预印本arXiv:1810.13306。
[170] 拉姆·E.&杜·H。H(2000年)。数据清理:问题与当前方法。在EEE数据工程公告中。
[171] 阿库图阿里森,H.,肖纳奥尔,M.和塞巴格,M(2019年)。自动机器学习与蒙特卡罗树搜索。国际人工智能联席会议,第3296-3303页。
[172] 拉库塔莫尼,A(2003年)。基于支持向量机准则的变量选择。机器学习研究杂志,31357-1370·Zbl 1102.68583
[173] Raman,V.和Hellerstein,J。M(2001年)。波特之轮:一个交互式数据清理系统。国际超大数据库会议,第一卷,第381-390页。
[174] RapidMiner(2018年)。RapidMiner Auto Model简介,网址:http://RapidMiner.com/resource/automated machine learning/。
[175] 拉斯穆森,C。E、 和威廉姆斯,C。K。一(机器学习的高斯过程。麻省理工学院出版社·Zbl 1177.68165
[176] 拉特克利夫,J。W、 和梅策纳,D。E(1988年)。模式匹配:格式塔方法。多布斯博士期刊,13(7),46-72。
[177] Reif,M.,Shafait,F.和Dengel,A(2012年)。用于分类器进化参数优化的元学习。机器学习,87357-380。
[178] Rekatsinas,T.,Chuy,X.,Ilyasy,I。F、 和R'e,C(2017年)。HoloClean:基于概率推理的整体数据修复。InVLDB Endowment,第1190-1201页。
[179] 雷诺兹,C。W(1987年)。羊群、牧群和学校:一个分布式行为模型。计算机图形学,21(4),25-34。
[180度] 罗宾斯,H(1952年)。实验顺序设计的某些方面。《美国数学学会公报》,58(5),527-535·Zbl 0049.37009
[181号] 洛卡,L(2010年)。基于集成的分类器。人工智能评论,33(1-2),1-39。
[182号] 罗素,P。J(1987年)。轮廓:对聚类分析的解释和验证的图形辅助工具。计算与应用数学杂志,20,53-65·0536.ZB069
[183] Saeys,Y.,Inza,I.和Larra●naga,P(2007年)。生物信息学中的特征选择技术述评。生物信息学,23(19),2507-2517。
[184] 萨尔瓦多,M。M、 ,Budka,M.和Gabrys,B(2016年)。多组分预测系统的自动组合。国际混合人工智能系统会议,第27-39页。
[185] 萨尔瓦多,M。M、 ,Budka,M.和Gabrys,B(2017年)。多分量预测系统的petri网建模。工业模拟会议,第17-23页。
[186] 普曼塔,B(2004年)。齿轮故障检测的人工神经网络和支持向量机与遗传算法。机械系统与信号处理,18(3),625-644。
[187] Schoenfeld,B.,Giraud Carrier,C.,Poggemann,M.,Christensen,J.和Seppi,K(2018年)。机器学习管道的预处理器选择。国际机器学习研讨会。
[188] Shahraria,B.,Swersky,K.,Wang,Z.,亚当斯,R。P、 和de Freitas,N(2016年)。把人从循环中解放出来:贝叶斯优化的回顾,IEEE论文集,104(1),148-175。
[189] 剪切机,C(2000年)。《CRISP-DM模型:数据挖掘的新蓝图》,《数据仓库杂志》,5(4),13-22。
[190号] Silver,D.,Hubert,T.,Schrittwieser,J.,Antonoglou,I.,Lai,M.,Guez,A.,Lanctot,M.,Sifre,L.,Kumaran,D.,Graepel,T.,Lillicrap,T.,Simonyan,K.和Hassabis,D(2017年)。用一般强化学习算法自学国际象棋和Shogi。arXiv预印本arXiv:1712.01815·兹布1433.68320
[191] 史密斯,M。G、 和布尔,L(2005年)。用遗传算法构造和选择特征的遗传规划。遗传规划与进化机器,6(3),265-281。
[192号] 史密斯,M。J、 ,Wedge,R.和Veeramachaneni,K(2017年)。FeatureHub:走向协作数据科学。国际数据科学与高级分析会议,590-600页。
[193] Snoek,J.,Larochelle,H.和亚当斯,R。P(《机器学习算法的实用贝叶斯优化》。神经信息处理系统导论,2951-2959页。
[194号] 斯尼曼,J。A(实用数学优化:介绍基本优化理论和基于梯度的经典和新算法。斯普林格·Zbl 1104.90003号
[195] Sohn,S。是的(1999年)。模式识别分类算法的元分析。模式分析与机器智能IEEE汇刊,21(11),1137-1144。
[196] 索利斯,F。J、 ,&Wets,R。J、 -B.公司(1981年)。随机搜索技术最小化。运筹学数学,6(1),19-30·Zbl 0502.90070
[197] 桑迪,P(2009年)。特征构造方法:A Survey.Sifaka。反恐精英。Uiuc。埃杜,69,70-71。
[198] 斯帕克斯,E。R、 ,塔尔瓦卡,A.,哈斯,D.,富兰克林,M。J、 ,约旦,M。一、 和克拉斯卡,T(2015年)。大规模机器学习的自动模型搜索。英纳姆云计算研讨会,第368-380页。
[199] Swearingen,T.,Drevo,W.,Cyphers,B.,Cuesta Infante,A.,Ross,A.和Veeramachaneni,K(2017年)。ATM:一个分布式的,协作的,可扩展的自动机器学习系统。国际大数据会议,第151-162页。
[200] 斯沃斯基,K.,斯努克,J.和亚当斯,R。P(2014年)。冻融贝叶斯优化.arXiv预印本arXiv:1406.3896。
[201] 桑顿,C.,赫特,F.,霍斯,H。H、 和莱顿布朗,K(2013年)。Auto-WEKA:分类算法的组合选择和超参数优化。国际知识发现和数据挖掘国际会议,第847-855页。
[202] Tran,B.,Xue,B.,和Zhang,M(2016年)。高维数据分类中特征构造与选择的遗传规划。模因计算,8,3-15。
[203] Tuggener,L.,Amirian,M.,Rombach,K.,L¨orwald,S.,Varlet,A.,Westermann,C.和Stadelmann,T(2019年)。自动机器学习实践:最新进展和最新成果。InSwiss数据科学会议,第31-36页。
[204] Tuv,E.,Borisov,A.,Runger,G.和Torkkola,K(2009年)。具有集合、人工变量和冗余消除的特征选择。机器学习研究杂志,101341-1366·Zbl 1235.62003
[205] USU软件公司(2018年)。武士刀。。可用网址:katana.usu.de/。
[206] Vafaie,H.和De Jong,K(1992年)。遗传算法作为机器学习中特征选择的工具。国际人工智能工具会议,第200-203页。
[207] 范瑞恩,J。N、 ,Abdulrahman,S。M、 ,Braddil,P.和Vanschoren,J(2015年)。利用学习曲线快速选择算法。国际智能数据分析研讨会。
[208号] 范瑞恩,J。N、 和赫特,F(2018年)。跨数据集的超参数重要性。知识发现与数据挖掘国际会议,第2367-2376页。
[209] 范肖伦,J(2019年)。元学习。听觉机器学习:方法,系统,挑战,第35-61页。
[210] Vanschoren,J.,van Rijn,J。N、 Bischl,B.和Torgo,L(2014年)。OpenML:机器学习中的网络科学。ACM知识发现和数据挖掘国际会议,15(2),49-60。
[211] Weisz,G.,Gyorgy,A.和Szepesvari,C(2018年)。LeapsAndBounds:一种近似优化算法配置的方法。国际机器学习会议AutoML研讨会,第5257-5265页。
[212] Wever,M.,Mohr,F.和H?ullermeier,E(2018年)。无限长机器学习管道的ML计划。国际机器学习研讨会。
[213] Wistuba,M.,Schilling,N.和Schmidt Thieme,L(2015a)。超参数搜索空间剪枝-一种新的基于序列模型的超参数优化组件。《数据库中机器学习和知识发现欧洲会议》,第104-119页。
[214] Wistuba,M.,Schilling,N.和Schmidt Thieme,L(2015年b)。学习超参数优化初始化。国际数据科学和高级分析会议·Zbl 1457.68242
[215] Wistuba,M.,Schilling,N.和Schmidt Thieme,L(2017年)。自动科学怪人:自主创造复杂的组合。国际数据挖掘会议,第741-749页。
[216] 沃尔珀特,D。H(1992年)。《神经网络》,5(2),241-259。
[217] Yang,Y.和Pedersen,J。O(1997年)。文本分类中特征选择的比较研究。机器学习国际会议,97,412-420。
[218] Zhang,Y.,Bahadori,M。T、 ,Su,H.和Sun,J(2016年)。FLASH:数据分析管道的快速贝叶斯优化。国际知识发现与数据挖掘国际会议,第2065-2074页。
[219] Zhou,L.(2018年)。如何建立一条机器学习管道学习http://www.datanami.com/2018/09/05/如何构建更好的机器学习管道/
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。