• gbm公司

  • 引用了50篇文章[sw07994]
  • 实现对Freund和Schapire的扩展阿达布思算法和弗里德曼梯度提升机。。。logistic,Poisson,Cox比例风险部分似然,阿达布思指数损失,胡伯里铰链损失,和学习。。。
  • AdaCost公司

  • 在26篇文章中引用[sw33192]
  • 成本敏感型提振。AdaCost的变体阿达布思,是一种错误分类成本敏感的提升方法。。。减少累计误分类成本超过阿达布思. 我们正式证明了AdaCost降低了。。。减少累计误分类成本阿达布思不消耗额外的计算能力。。。
  • 阿达布思萨米

  • 引用23条[sw19134]
  • 多班阿达布思. Boosting是解决这两类问题的一种非常成功的技术。。。直接扩展阿达布思多类情形的无归约算法。。。显示建议的多类阿达布思该算法相当于一个前级加法。。。
  • 烟熏

  • 参考33篇文章[sw12571]
  • 重击与标准助推程序阿达布思通过提供。。。
  • 逻辑增压

  • 引用18条[sw08543]
  • 像boosting这样的算法,比如阿达布思它的许多修改,可能会超过。。。
  • 阿达布思.RT

  • 在14篇文章中引用[sw08520]
  • 预设阈值,然后按照阿达布思程序。因此,它需要选择次优。。。
  • 阿达巴格

  • 参考6篇文章[sw08024]
  • adabag:应用多类AdaBoost.M1,阿达布思-SAMME和Bagging。这个包实现了Freund和Schapire。。。3.0版引入了一些特性,阿达布思-SAMME(Zhu et al.,2009)被实施。。。
  • RBoost公司

  • 引用3篇文章[sw29975]
  • 函数与数值稳定的基本学习者。阿达布思在机器里引起了很多注意。。。将弱分类器组合成强分类器。然而,阿达布思倾向于过度适应噪音数据。。。应用。因此,提高抗噪声能力阿达布思在许多应用中起着重要作用。。。对噪声数据的敏感性阿达布思源于指数损失函数,它把。。。
  • 萨布斯特

  • 参考6篇文章[sw36832]
  • 平稳(提前)停车规则。表现阿达布思比较和对比。。。
  • 发起人探索者

  • 引用2篇文章[sw35524]
  • 基于遗传算法的有效启动子识别方法阿达布思算法。动机:促销员预测很重要。。。高维输入向量。瀑布阿达布思-采用基于学习过程的方法来选择。。。
  • GA集成

  • 1条引用[sw11385]
  • 难以解释。一些增强方法,包括阿达布思,对异常值也非常敏感。。。GA集成的测试集错误率,阿达布思,和GentleBoost(一个抗离群值的版本。。。阿达布思)使用几个人工数据集和来自加州大学欧文分校的真实世界数据集。。。结果预测模型比阿达布思先生们。。。
  • 快速推进

  • 1条引用[sw33873]
  • fastAdaboost包:快速实现阿达布思. 工具阿达布思基于C++后端代码。这个。。。实现Adaboost.M1算法和阿达布思(SAMME.R)算法。。。
  • 焦斯堡

  • 引用2篇文章[sw33874]
  • 用于机器学习方法,如阿达布思,随机森林。。。
  • gmb公司

  • 1条引用[sw14565]
  • 对Freund和Schapire的扩展阿达布思算法和Friedman梯度提升机。包括。。。logistic,Poisson,Cox比例风险部分似然,阿达布思指数损失,胡伯里铰链损失,和学习。。。
  • 静态模式识别

  • 1条引用[sw15007]
  • 分析、决策树、凹凸搜索(PRIM)、提升(阿达布思)袋装和随机森林算法,以及接口。。。
  • Meta-i6mA

  • 1条引用[sw37446]
  • 随机树,logistic回归,naivebayes和阿达布思)以蔷薇科植物基因组为基础,进行了。。。
  • 平息

  • 1条引用[sw38447]
  • 训练了一个算法对11种新特征的序列数据进行分类器分析。结果。。。
  • 皮法特

  • 在0篇文章中引用[sw36968号]
  • 提供更多本地信息。然后我们雇佣阿达布思具有最大差别的特征选择技术。。。
  • R

  • 引用8904篇文章[sw00771]
  • 是一种统计语言和环境。。。
  • UCI毫升

  • 在3162篇文章中引用[sw04074]
  • 加州大学欧文机器学习知识库。我们目前维持。。。