×

预测自然现象的模块化学习模型。 (英语) Zbl 1160.68517号

摘要:模块化模型是一种特殊类型的委员会机器,由一组专门的(本地)模型组成,每个模型负责输入空间的特定区域,可以在训练集的子集上进行训练。许多用于将这样的区域分配给局部模型的算法通常以自动的方式进行。然而,在预测自然过程时,领域专家希望在这种分配中引入更多的知识,并对模型的选择有一定的控制权。本文提出了一些基于各种类型的训练集分割并结合模型输出(硬分割、统计和确定性驱动的模型软组合、“模糊委员会”等)构建模块化模型的方法。还讨论了将领域专家纳入建模过程的问题,并提出了模型树类(分段线性模块回归模型)中的新算法。在一些基准测试和河流流量预测问题上,将基于模块化局部建模的算法与更传统的“全局”学习模型进行比较,表明它们具有更高的准确性和透明度。

MSC公司:

68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] 安科斯特,M。;Elsen,C。;埃斯特,M。;Kriegel,H.,《可视化分类:交互式决策树构建方法》,第五届知识发现和数据挖掘国际会议论文集(1999年),ACM出版社:纽约ACM出版社,第392-397页
[2] Bennett,K.P.,《全局树优化:非贪婪决策树算法》,《计算科学与统计杂志》,26,156-160(1994)
[3] Bennett,K.P.和Blue,J.A.(1997年)。最优决策树。R.P.I.数学报告第214号; Bennett,K.P.和Blue,J.A.(1997年)。最优决策树。R.P.I.数学报告第214号
[4] Bhattacharya,B.和Solomatine,D.P.(2006年)。沉积建模中的机器学习。神经网络,本期,doi:10.1016/j.neunet.2006.01.007。;Bhattacharya,B.和Solomatine,D.P.(2006年)。沉积建模中的机器学习。神经网络,本期,doi:10.1016/j.neunet.2006.01.007·Zbl 1160.68491号
[5] Blake,C.L.和Mertz,C.J.(1998年)。机器学习数据库的UCI存储库网址:http://www.ics.uci.edu/∼;mlearn/mlrepository.html;Blake,C.L.和Mertz,C.J.(1998年)。机器学习数据库的UCI存储库网址:http://www.ics.uci.edu/∼;mlearn/mlrepository.html
[6] Breiman,L.,堆积回归器,机器学习,24,1,49-64(1996)·兹比尔0849.68104
[7] 布雷曼,L。;弗里德曼,J.H。;Olshen,R.A。;Stone,C.J.,《分类和回归树》(1984年),沃兹沃斯国际:沃兹沃思国际,加利福尼亚州贝尔蒙特·Zbl 0541.62042号
[8] Caruana,R.和Freitag,D.(1994年)。贪婪的属性选择。机器学习国际会议; Caruana,R.和Freitag,D.(1994年)。贪婪的属性选择。机器学习国际会议
[9] 迪比克,Y。;Solomatine,D.P。;Abbott,M.B.,《关于人工神经网络中数字水力模型的封装》,《水力研究杂志》,37,2,147-161(1999)
[10] Drucker,H.,Boosting using neural networks,(Sharkey,A.J.C.,In combination artificial neural net(1999),施普林格:施普林格伦敦),51-77·Zbl 0932.68074号
[11] E.弗兰克。;Wang,Y。;Inglis,S。;霍姆斯,G。;Witten,I.H.,《使用模型树进行分类》,《机器学习杂志》,32,1,63-76(1998)·Zbl 0901.68167号
[12] Frank,E.和Witten,I.H.(1996年)。在决策树中选择多路分割。工作文件96/31; Frank,E.和Witten,I.H.(1996年)。在决策树中选择多路分割。工作文件96/31
[13] 弗伦德,Y。;Mason,L.,交替决策树学习算法。,《第十六届机器学习国际会议论文集》(1999),Morgan Kaufmann:Morgan Koufmann San Francisco,CA,第124-133页
[14] Freund,Y.和Schapire,R.(1996)。实验一种新的boosting算法。在意大利巴里举行的第13届机器学习国际会议; Freund,Y.和Schapire,R.(1996)。实验一种新的boosting算法。在意大利巴里举行的第13届机器学习国际会议
[15] 弗伦德,Y。;Schapire,R.,《在线学习的决策理论推广和助推应用》,《计算机与系统科学杂志》,55,1,119-139(1997)·Zbl 0880.68103号
[16] Friedman,J.H.,多元自适应回归样条,《统计年鉴》,19,1-141(1991)·Zbl 0765.62064号
[17] GLOBE:全局和进化优化工具。(2004). http://www.data-machine.com; GLOBE:全局和进化优化工具。(2004). 网址:http://www.data-machine.com
[18] Haykin,S.,《神经网络》(1999),Prentice Hall出版社:Prentice Hall Englewood Cliffs,NJ·Zbl 0934.68076号
[19] Hyafil,L。;Rivest,R.L.,《构建最优二叉决策树是NP-完全的》,《信息处理快报》,5,15-17(1976)·兹伯利0333.68029
[20] 雅各布斯,R.A。;M.I.乔丹。;Nowlan,S.J。;Hinton,G.E.,本地专家的自适应混合,神经计算,379-87(1991)
[21] Kamber,M.、Winstone,L.、Gong,W.、Cheng,S.和Han,J.(1997)。泛化和决策树归纳:数据挖掘中的有效分类。数据工程研究问题国际研讨会(RIDE'97),英国伯明翰,4月; Kamber,M.、Winstone,L.、Gong,W.、Cheng,S.和Han,J.(1997)。泛化和决策树归纳:数据挖掘中的有效分类。数据工程研究问题国际研讨会(RIDE'97),英国伯明翰,4月
[22] 新泽西州卡萨波夫。;Song,Q.,DENFIS:动态进化神经模糊推理系统及其在时间序列预测中的应用,IEEE模糊系统汇刊,2144-154(2002)
[23] Kuncheva,L.I.,组合模式分类器(2004),威利:威利新泽西·Zbl 1066.68114号
[24] Loyola,D.G.(2006)。神经网络方法在地球观测卫星数据处理中的应用,本期,doi:10.1016/j.neunet.2006.01010。;Loyola,D.G.(2006)。神经网络方法在地球观测卫星数据处理中的应用,本期,doi:10.1016/j.neunet.2006.01.010。
[25] 曼,K.F。;Tang,K.S。;Kwong,S.,《遗传算法:概念和设计》(1999),施普林格出版社:英国伦敦施普林格·Zbl 0926.68113号
[26] NeuralMachine软件。(2006). 全球网络:http://www.data-machine.com; NeuralMachine软件。(2006). 全球网络:http://www.data-machine.com
[27] NeuroSolutions软件。(2004). 全球网络:网址:http://www.nd.com; 神经解决方案软件。(2004年)。全球网络:网址:http://www.nd.com
[28] 奥皮茨博士。;Maclin,R.,《流行集成方法:实证研究》,《人工智能研究杂志》,11,169-198(1999)·Zbl 0924.68159号
[29] Pfahringer,B.、Geoffrey,H.和Kirkby,R.(2001)。优化交替决策树的归纳。第五届亚太地区知识发现和数据挖掘进展会议记录。;Pfahringer,B.、Geoffrey,H.和Kirkby,R.(2001)。优化交替决策树的归纳。第五届亚太地区知识发现和数据挖掘进展会议记录·Zbl 0989.68586号
[30] Quinlan,J.R.,《连续课堂学习》(Adams,A.;Sterling,L.,《AI’92的进展》,第五届澳大利亚人工智能联合会议(1992年),《世界科学:世界科学新加坡》,343-348
[31] Quinlan,J.R.,C4.5:机器学习程序(1993),Morgan Kaufmann:Morgan Koufmann San Mateo,CA
[32] Schapire,R.,《弱可学习性的力量》,机器学习,5,2,197-227(1990)
[33] 参见,L。;Openshaw,S.,《将软计算方法应用于河流水位预测》,《水文科学杂志》,44763-778(1999)
[34] Shrestha,D.L.和Solomatine,D.P.(出版中)。AdaBoost的实验。RT是一种改进的回归增强方案。神经计算; Shrestha,D.L.和Solomatine,D.P.(出版中)。AdaBoost的实验。RT是一种改进的回归增强方案。神经计算·Zbl 1115.68488号
[35] Sikonja,M.R.和Kononenko,I.(1998年)。使用MDL修剪回归树。ECAI 98,第13届欧洲人工智能会议; Sikonja,M.R.和Kononenko,I.(1998年)。使用MDL修剪回归树。ECAI 98,第13届欧洲人工智能会议
[36] Solomatine,D.P.,用下降覆盖自适应聚类的两种策略及其与其他算法的比较,《全局优化杂志》,14,1,55-78(1999)·Zbl 0922.90129号
[37] Solomatine,D.P。;Dulal,K.N.,《在降雨径流建模中作为神经网络替代物的模型树》,《水文科学杂志》,48,3,399-411(2003)
[38] Solomatine,D.P.和Maskey,M.(出版中)。与水文预测中的其他数据驱动方法相比,基于实例的学习。水文过程; Solomatine,D.P.和Maskey,M.(出版中)。与水文预测中的其他数据驱动方法相比,基于实例的学习。水文过程
[39] Solomatine,D.P.和Shrestha,D.L.(2004)。阿达·布斯特。RT:用于回归问题的增强算法。神经网络国际联合会议,匈牙利布达佩斯; Solomatine,D.P.和Shrestha,D.L.(2004)。阿达·布斯特。RT:用于回归问题的增强算法。匈牙利布达佩斯国际神经网络联合会议·Zbl 1115.68488号
[40] Solomatine,D.P.和Siek,M.B.(2004年)。半最优层次回归模型和人工神经网络。匈牙利布达佩斯国际神经网络联合会议; Solomatine,D.P.和Siek,M.B.(2004年)。半最优层次回归模型和人工神经网络。匈牙利布达佩斯国际神经网络联合会议·Zbl 1160.68517号
[41] Törn,A.、Törn,A.、Zilinskas,A.(1989)《全局优化》(255页)。柏林:施普林格。;Törn,A.、Törn,A.、Zilinskas,A.(1989)《全局优化》(255页)。柏林:斯普林格·Zbl 0752.90075号
[42] Tsoumakas,G。;Vlahavas,I.,分布式分类器的有效堆叠,(van Harmelen,F.,第15届欧洲人工智能会议(ECAI)会议记录(2002),IOS出版社:荷兰阿姆斯特丹IOS出版社),340-344
[43] 乌特戈夫,体育。;北卡罗来纳州伯克曼。;Clouse,J.A.,基于有效树重组的决策树归纳,机器学习,29,1,5-44(1997)·Zbl 0886.68105号
[44] Wang,Y.和Witten,I.H.(1997)。用于预测连续类的模型树的归纳。捷克共和国布拉格欧洲机器学习会议记录; Wang,Y.和Witten,I.H.(1997)。用于预测连续类的模型树的归纳。捷克共和国布拉格欧洲机器学习会议记录
[45] Ware,M。;E.弗兰克。;霍姆斯,G。;霍尔,M。;Witten,I.H.,交互式机器学习-设置用户构建分类器,《国际人类计算机研究杂志》,55,3,281-292(2001)·Zbl 0972.68599号
[46] Witten,I.H。;Frank,E.,《数据挖掘》(2000),Morgan Kaufmann Publishers:Morgan Koufmann-Publishers Los Altos,CA
[47] Wolpert,D.H.,叠加泛化,神经网络,5,2,241-259(1992)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。