烟熏

此代码实现SMOTEBoost。SMOTEBoost是一种处理离散类标签数据中类不平衡问题的算法。它使用SMOTE和标准boosting过程AdaBoost的组合,通过向学习者提供在先前boosting迭代中错误分类的少数民族类示例,以及这些实例的更广泛表示(由SMOTE实现),从而更好地建模少数民族类。由于boosting算法对所有错误分类的示例和主要由多数类组成的数据池中的样本赋予相同的权重,因此训练集的后续采样仍然偏向于多数类。因此,为了减少由于班级不平衡而导致的学习过程中固有的偏差,增加少数民族班级的抽样权重,在每一轮的提升中都引入了SMOTE。SMOTE的引入增加了学习者的少数民族班样本数量,并在每轮提升轮的分布中关注这些案例。除了最大化倾斜类数据集的裕度外,该过程还增加了集成中分类器之间的多样性,因为每次迭代都会产生不同的合成样本集。有关该算法的更多理论描述,请参阅以下论文:N.V.Chawla,A.Lazarevic,L.O.Hall,K.Bowyer,“SMOTEBoost:在Boosting中改进少数民族阶级的预测”,数据库知识发现杂志:PKDD,2003。目前SMOTEBoost的实现是作者为了研究的目的而独立完成的。为了使用户能够使用多种不同的弱学习者进行提升,使用wekaapi创建了一个接口。目前,有四种Weka算法可以作为弱学习者使用:J48、SMO、IBk、Logistic


zbMATH中的参考文献(参考文献33条)

显示第1到第20个结果,共33个。
按年份排序(引用)
  1. 查巴内,伊克拉姆;格尔马齐,拉杜瓦内;Hammami,Mohamed:从不平衡数据学习决策树的增强技术(2020)
  2. 陶新民;李青;郭文杰;任超;何青;刘瑞;邹俊荣:基于启发式滤波密度峰值聚类的不平衡数据集自适应加权过采样(2020)
  3. 朱兵;高子涵;赵俊凯;Seppe K.L.M.van den Broucke:IRIC:二进制不平衡分类的R库(2019)不是zbMATH
  4. 王哲;曹晨洁:非平衡问题的双子空间级联插值学习和置信扰动(2019)
  5. 谢文豪;梁公谦;董仲辉;谭宝玉;张宝生:基于样本选择策略的改进过采样算法(2019)
  6. 张学英;李瑞贤;张波;杨云翔;郭靖;季翔:基于实例的不平衡处理方法学习推荐算法(2019)
  7. 朱宗海;王哲;李东东;杜文丽:非平衡问题的基于树的空间划分与融合集成学习框架(2019)
  8. 范霍伊维尔德,杰利斯;Martens,David:稀疏和大型行为数据集中的不平衡分类(2018)
  9. 龚,俊浩;Kim,Hyunjoong:RHSBoost:改善不平衡数据的分类性能(2017)
  10. 科齐亚尔斯基,米查;Wożniak,Michał:一种用于不平衡数据分类的联合清洗和重采样算法(2017)
  11. 李倩;李刚;牛文佳;曹操、延安;张良;谭建龙;郭,李:用维纳过程过采样促进不平衡数据学习(2017)
  12. 做,成仁;Poulet,François:用于分类大规模图像数据集的并行多类逻辑回归(2015)ioport公司
  13. 安东尼奥·费尔南德斯·巴尔德拉;非对称学习者(Luis-Mela-boosting,2014)
  14. 李秋杰;毛耀斌:非平衡数据分类boosting方法述评(2014)
  15. 王强:基于混合样本支持向量机的不平衡数据分类方法(2014)
  16. Zięba,Maciej;Świątek,杰瑞;Lubicz,Marek:Cost sensitive SVM with non-information examples elimination for Incombalanced Afternal risk management problem(2014年),成本敏感型支持向量机(SVM),非信息性示例消除术后不平衡风险管理问题(2014年)
  17. 马提诺,马提亚斯;赫尔南德斯,古兹曼;菲奥里,马塞洛;费南德斯,艾丽西亚:最佳分类器设计的新框架(2013)ioport公司
  18. 加拉,米克尔;费尔南德斯,阿尔伯托;伯勒希亚,爱德华恩;Herrera,Francisco:EUSBoost:通过进化欠采样增强高度不平衡数据集的集合(2013)ioport公司
  19. 维多利亚州洛佩斯;费尔南德斯,阿尔伯托;加西亚,萨尔瓦多;瓦西里宫;Herrera,Francisco:对不平衡数据分类的洞察:使用数据内在特征的实证结果和当前趋势(2013)ioport公司
  20. Stefanowski,Jerzy:从不平衡数据中学习分类器的重叠、罕见示例和类分解(2013)ioport公司