杂志的下一篇文章
层次转换对数逻辑模型:主观贝叶斯分析
下一篇特刊文章
英国住房和股票市场之间的平均因果关系和方差测试
期刊上的上一篇文章
差异交换复制:离散还是连续?
特刊上一篇文章
基于文本挖掘方法的跨语言新闻相似度估计
 
 
订购文章重印
字体类型:
宋体 乔治亚州 宋体,Verdana
字体大小:
澳大利亚 澳大利亚 澳大利亚
行距:
列宽:
背景:
第条

合奏学习还是深度学习?应用于违约风险分析

通过
Shigeyuki Hamori先生
1中*
米纳米·卡瓦伊
2
高弘久美
2
村上裕二
2
渡边捷卡拉
2
1
日本神户657-8501神户大学经济研究生院
2
日本神户657-8501神户大学经济系
*
信件应寄给的作者。
J.风险财务管理。 201811(1) ,12;https://doi.org/10.3390/jrfm11010012
收到的提交文件:2018年1月19日/修订日期:2018年2月24日/接受日期:2018年2月28日/发布时间:2018年3月5日
(本文属于特刊实证金融学)

摘要

:
适当的信贷风险管理对贷款机构至关重要,因为借款人违约时可能会造成重大损失。因此,能够客观衡量和分析信用风险的统计方法变得越来越重要。本研究分析了违约支付数据,并将三种集成学习方法(即套袋法、随机森林法和boosting法)与各种神经网络方法的预测精度和分类能力进行了比较,每种方法都具有不同的激活功能。结果表明,boosting方法的分类能力优于包括神经网络在内的其他机器学习方法。研究还发现,神经网络模型的性能取决于激活函数的选择、中间层的数量和是否包含丢弃。

1.简介

信贷风险管理对于以贷款为核心业务的金融机构至关重要。因此,准确的消费者或公司信用评估至关重要,因为当借款人违约时,金融机构可能会遭受重大损失。因此,为了控制坏账损失,金融机构需要正确评估借款人的信贷风险。因此,他们努力核对借款人数据,并开发了各种统计方法来客观地衡量和分析信贷风险。
由于其学术和实践意义,人们对这一问题进行了大量研究。例如,Boguslauskas和Mileris(2009)使用立陶宛的数据分析了50家成功企业和50家破产企业的信用风险。他们的结果表明,人工神经网络是估计信贷风险的有效方法。
安吉利尼、托洛和罗利(Angelini等人,2008年)利用意大利一家银行76家小企业的数据,介绍了人工神经网络在信用风险评估中的应用。他们使用两种神经结构将借款人分为两个不同的类别:无息贷款和违约贷款。一种是前馈神经网络,由一个输入层、两个隐藏层和一个输出层组成。另一种是四层前馈神经网络,具有特殊连接和三个一组的输入神经元。他们的结果表明,神经网络成功识别了借款人的有偿/违约趋势。
科什曼语(2009)使用神经网络开发了一个信用风险评估系统,并将该系统应用于澳大利亚的信用数据(690个案例;307个可信实例和383个非可信实例)。他比较了单隐层神经网络(SHNN)模型和双隐层网络(DHNN)的性能。他的实验结果表明,SHNN系统在信用风险评估方面优于DHNN系统,因此推荐SHNN神经系统用于信贷申请的自动处理。
Yeh和Lien(2009)利用台湾地区客户的违约支付数据,比较了六种数据挖掘方法(特别是K近邻分类器、逻辑回归、判别分析、朴素贝叶斯分类器、人工神经网络和分类树)对违约概率的预测准确性。他们的实验结果表明,只有人工神经网络才能准确估计违约概率。
卡什曼(2010)采用神经网络模型对德国信贷数据进行信用风险评估,包括1000个案例:700个信誉良好的申请人和300个信誉不佳的申请人。1结果表明,训练数据和测试数据的准确率分别为99.25%和73.17%。然而,在这个数据中,如果人们总是预测一个案例是可信的,那么准确率自然收敛到70%。因此,结果表明,使用神经网络模型对测试数据的预测精度只有3.17%的提高。
甘特等人。(2015)还使用了德国信贷数据,并比较了12种神经网络模型来评估信贷风险。他们的结果表明,一个由20个输入神经元、10个隐藏神经元和一个输出神经元组成的神经网络是一个适用于信用风险评估系统的神经网络模型。
凯梅凯姆和布耶尔贝尼亚(2015)对突尼斯一家商业银行的86家突尼斯客户公司进行了三年的神经网络预测和判别分析。他们的结果表明,神经网络在预测信贷风险方面优于判别分析。
正如所指出的Oreski等人。(2012)大多数研究表明,与传统的统计方法相比,神经网络在信用风险评估中具有更高的准确性、灵活性和鲁棒性。
在本研究中,我们使用11种机器学习方法基于客户属性预测违约风险,并比较它们的预测精度。具体来说,我们采用了三种集成学习方法——打包、随机森林和提升,以及八种具有不同激活函数的神经网络方法。使用多个指标(准确性、预测率、结果、受试者操作特征(ROC)曲线、曲线下面积(AUC)和F评分),比较每种方法在预测违约风险方面的性能。2
结果表明,boosting方法的分类能力优于包括神经网络在内的其他机器学习方法。研究还发现,神经网络模型的性能取决于激活函数的选择和中间层的数量。
本文的其余部分组织如下。第2节解释了使用的数据和实验设计。第3节讨论了所得的实证结果。第4节介绍了结束语。

2.数据与实验设计

2.1. 机器学习技术

本研究采用了三种集成学习算法:打包、随机森林和boosting。装袋,由开发布雷曼(1996)是一种机器学习方法,使用引导从给定数据集创建多个训练数据集。对使用数据生成的分类结果进行排列和组合,以提高预测精度。由于引导样本是相互独立的,因此可以并行执行学习。
随机森林,也由提出布雷曼(2001),类似于装袋。它是一种机器学习方法,将多个训练数据集生成的分类结果进行排列和组合,以提高预测精度。然而,虽然装袋使用所有输入变量来创建每个决策树,但随机森林使用变量随机抽样的子集来创建每个决定树。这意味着随机森林比袋装更适合分析高维数据。
提升也是一种机器学习方法。袋装和随机森林采用独立学习,而boosting采用顺序学习(夏皮雷1999;Shapire and Freund 2012年). 在boosting中,在监督学习的基础上,依次调整权重,寻求多个学习结果。然后将这些结果进行组合和集成,以提高整体精度。使用最广泛的boosting算法是AdaBoost,由弗伦德和夏皮雷(1996).
神经网络(NN)是由多个连接单元组成的网络结构。它由输入层、中间层和输出层组成。神经网络配置由单元的连接方式决定;不同的配置使网络具有不同的功能和特性。前馈神经网络是最常用的神经网络模型,由多个单元的层次连接构成。当中间层的数量大于或等于两层时,该网络称为深度神经网络(DNN)。
神经网络中的激活函数非常重要,因为它表达了每个单元中输入和输出之间的函数关系。在本研究中,我们使用了两种类型的激活函数:Tanh和校正线性单元(ReLU)。这些功能定义如下:
T型 n个 小时 : (f) ( x个 ) = e(电子) x个 e(电子) x个 e(电子) x个 + e(电子) x个
R(右) e(电子) L(左) U型 : (f) ( x个 ) = 最大值 ( 0 x个 )
Tanh函数将实数压缩到范围[-1,1]。其激活饱和,输出以零为中心。ReLU函数是神经网络中的一种替代激活函数。它的主要好处之一是降低了梯度消失的可能性。
尽管DNN是强大的机器学习工具,但它们很容易过度拟合。这是通过一种称为“丢失”的技术来解决的,在这种技术中,单元被随机丢弃(连同它们的传入和传出连接)在网络中。这可以防止单元过度适应(Srivastava等人,2014年).
因此,我们使用以下11种方法来比较性能:
  • 打包。
  • 随机森林。
  • 助推。
  • 神经网络(激活函数为Tanh)。
  • 神经网络(激活函数为ReLU)。
  • 神经网络(激活函数为Tanh with Dropout)。
  • 神经网络(激活函数为ReLU with Dropout)。
  • 深度神经网络(激活函数为Tanh)。
  • 深度神经网络(激活函数为ReLU)。
  • 深度神经网络(激活函数为Tanh with Dropout)。
  • 深度神经网络(激活函数为ReLU with Dropout)。

2.2。数据

台湾使用的支付数据Yeh和Lien(2009)本研究中使用了。这些数据作为UCI机器学习库中默认信用卡客户的数据集提供。在使用的数据集中Yeh和Lien(2009),观察次数为25000次,其中5529次为违约金。然而,UCI机器学习库中的当前数据集共有30000个观察值,其中6636个观察值是默认付款。以下内容Yeh和Lien(2009),我们使用默认付款(否=0,是=1)作为解释变量,使用以下23个变量作为解释变量:
  • X1:授信金额(新台币元)。
  • X2:性别(1=男性;2=女性)。
  • X3:教育(1=研究生院;2=大学;3=高中;4=其他)。
  • X4:婚姻状况(1=已婚;2=单身;3=其他)。
  • X5:年龄(年)。
  • X6–X11:通过过去每月付款记录跟踪过去付款的历史记录(−1=按时付款;1=延迟一个月付款;2=延迟两个月付款……;8=延迟八个月付款,9=延迟九个月及以上付款)。
  • X6:2005年9月还款情况。
  • X7:2005年8月的还款状态。
  • X8:2005年7月还款情况。
  • X9:2005年6月的还款状态。
  • X10:2005年5月还款情况。
  • X11:2005年4月的还款情况。
  • X12:2005年9月对账单金额(新台币)。
  • X13:2005年8月账单金额(新台币)。
  • X14:2005年7月账单金额(新台币)。
  • X15:2005年6月账单金额(新台币)。
  • X16:2005年5月账单金额(新台币)。
  • X17:2005年4月账单金额(新台币)。
  • X18:2005年9月上一次付款金额(新台币)。
  • X19:2005年8月以前付款金额(新台币)。
  • X20:2005年7月以前付款金额(新台币)。
  • X21:2005年6月以前付款金额(新台币)。
  • X22:2005年5月以前付款金额(新台币)。
  • X23:2005年4月以前付款金额(新台币)。
由于无默认观测值的比例很高(77.88%),当所有观测值用于分析时,准确率不可避免地保持在78%。如果我们使用所有数据,很难理解使用机器学习的优点。因此,在本研究中,我们从所有非默认观测值中随机提取了6636个观测值,以确保非默认和默认观测值相等,从而防止失真。关于训练与测试数据集的比率,本研究使用了两个案例,即90%至10%和75%至25%。4
众所周知,数据规范化可以提高性能。分类器需要计算目标函数,即预测值和观测值之间的均方误差。如果某些特征具有广泛的值范围,则均方误差可能由这些特定特征控制,目标函数可能无法正常工作。因此,理想的做法是规范化所有特征的范围,以便每个特征对成本函数的贡献相等(Aksoy和Haralick 2001).索拉和塞维利亚(1997)指出神经网络训练之前的数据规范化可以使研究人员加快计算速度并获得良好的结果。贾亚拉克什米和桑塔库马兰(2011)指出统计归一化技术提高了前馈反向传播神经网络的可靠性和数据分类模型的性能。
以下内容卡什曼(2010),我们根据以下公式对数据进行规范化:
z(z) = x个 x个 最小值 x个 最大值 x个 最小值
哪里 z(z) 是标准化数据,x个是每个数据集,x个最小值是的最小值x个、和x个最大值是的最大值x个.此方法将特征范围重新调整为介于0和1之间。我们分析了归一化数据和原始数据,以评估实验结果的稳健性。

2.3. 绩效评估

我们使用准确性来评估每种机器学习方法的性能。在我们的两类问题中,混淆矩阵(表1)对分类问题的预测结果进行了总结,如下所示:
注意,“真正”表示正确预测事件值的情况;“假阳性”表示错误预测的事件值的情况;“真负数”表示正确预测的无事件值的情况:“假负数”表明错误预测的无事情值的情况。然后,预测准确率定义为,
预测   精确   =   TP(转移定价) + TN公司 TP(转移定价) + FP公司 + FN公司 + TN公司
此外,我们重复实验100次,并计算每个数据集的准确率的平均值和标准偏差。5
接下来,我们通过检测ROC曲线和AUC值来分析每种方法的分类能力。在考虑模型是否合适时,仅仅依靠准确率是不够的。给定类中正确识别实例的比率称为真阳性率。给定类中错误识别实例的比率称为误报率。当在水平轴上绘制假阳性率,在垂直轴上绘制真阳性率时,这两者的组合会产生ROC曲线。一个好的模型是显示高真阳性率值和低假阳性值的模型。AUC是指ROC曲线下的面积。完全随机预测产生的AUC为0.5。换句话说,ROC曲线是一条连接原点(0,0)和点(1,1)的直线。
我们还报告了每个病例的F评分,其定义如下:
F类 分数 = 2 × 第页 e(电子) c(c) × 第页 第页 e(电子) c(c) o(o) n个 第页 e(电子) c(c) + 第页 第页 e(电子) c(c) o(o) n个
哪里回忆等于TP/(TP+FN),并且精度等于TP/(TP+FP)。因此,F分数是召回率和准确率的调和平均值。

3.结果

我们使用R具体实现了实验,“ipred”包用于打包,“randomForest”用于随机森林,“ada”包用来提升(adaboost算法),“h2o”包用于NN和DNN。此外,我们分析了每种方法在原始数据和归一化数据两种情况下的预测准确率。然后,我们基于ROC曲线、AUC值和F-score检验了每种方法的分类能力。
表2a、 b报告使用原始数据获得的结果。表格显示,boosting具有最佳性能,平均预测准确率高于70%,训练和测试数据的标准偏差较小。没有一个神经网络模型的测试数据平均准确率超过70%。此外,它们对测试数据的标准偏差相对较大。因此,很明显,boosting比神经网络实现了更高的预测精度。对于袋装林和随机林,试验数据的预测准确率小于60%。此外,训练数据和测试数据之间的比率差异(90%:10%或75%:25%)对我们的分析结果没有明显影响。6
表3a、 b总结了使用归一化数据获得的结果。表中显示boosting对测试数据的准确率最高,与原始数据情况下的结果类似。助推的平均准确率超过70%,训练和测试数据的标准偏差最小。没有一个神经网络模型对测试数据的平均预测准确率超过70%。此外,它们对测试数据的标准偏差相对较大。套袋和随机林对试验数据的预测准确率平均不到60%,与原始数据的情况类似。此外,训练数据和测试数据之间的比率差异(90%:10%或75%:25%)对结果没有重大影响,这与原始数据的情况类似。我们将原始数据的结果和归一化数据的结果进行了比较,发现预测准确率没有显著差异。
图1图2图3图4图5图6图7图8图9图10图11使用归一化数据显示病例的ROC曲线和AUC和F-score,训练数据和测试数据的比率为75%到25%。在每个图中,敏感性(纵轴)对应于真阳性率,而1-特异性(横轴)对应着假阳性率。这些图表表明,除了Tanh激活函数有缺失的情况外,升压和神经网络模型的ROC曲线具有理想的特性。
还显示了每个图的AUC值和F分数。发现升压时获得的AUC值最高(0.769)。提高也获得了最高的F分数(0.744)。因此,boosting的分类能力优于其他机器学习方法。这可能是因为增强使用了权重的顺序学习。
当Tanh作为激活函数时,神经网络的AUC值和F值都优于DNN。然而,当ReLU用作激活函数时,这种结果并不明显。有趣的是,可以看到神经网络模型在AUC值和F分数方面对辍学影响的结果。当Tanh被用作激活函数时,NN(DNN)的性能优于NN(DNN),但存在缺失。另一方面,当使用ReLU作为激活函数时,具有缺失的NN(DNN)优于NN(DN)。因此,神经网络的性能可能对模型设置很敏感,即中间层的数量、激活函数的类型和是否包含缺失。

4.结论

在本研究中,我们分析了台湾地区的违约支付数据,并比较了三种集成学习方法:bagging、随机森林和boosting与使用两种不同激活函数的各种神经网络方法的预测精度和分类能力。我们的主要结果总结如下:
(1)
boosting的分类能力优于其他机器学习方法。
(2)
当以Tanh为激活函数时,神经网络的预测准确率、AUC值和F得分均优于DNN。然而,当ReLU用作激活函数时,这种结果并不明显。
(3)
当Tanh被用作激活函数时,就AUC值和F-score而言,NN(DNN)优于NN(DNN),但存在缺失。然而,当ReLU被用作激活函数时,在AUC值和F-score方面,具有缺失的NN(DNN)优于NN(DNN)。
深度学习的可用性最近成为人们关注的焦点。Oreski等人。(2012)指出大多数研究表明,神经网络在评估信用风险时比传统统计方法更准确、更灵活、更稳健。然而,我们的结果表明,boosting在预测精度、AUC和F-score方面优于神经网络。众所周知,为神经网络选择合适的超参数并不容易。因此,神经网络并不总是万能药,尤其是对于相对较小的样本。有鉴于此,有效利用其他方法(如增压)是值得的。我们未来的工作将是对不同的数据进行类似的分析,以检查结果的稳健性。

致谢

我们感谢三位匿名推荐人的宝贵意见和建议。在大数据和机器学习研讨会上阅读了本文的早期版本。我们感谢郑章和蔡晓静提出的有益意见和建议。这项研究得到了Nihon Hoseigakkai基金会的资助。

作者贡献

滨森Shigeyuki构思并设计了实验;Minami Kawai、Takahiro Kume、Yuji Murakami和Chikara Watanabe进行了实验,分析了数据,并提供了试剂/材料/分析工具;该论文由滨本茂、川井敏美、久美、村上裕二和渡边捷郎撰写。

利益冲突

作者声明没有利益冲突。创始发起人在研究的设计中没有任何作用;收集、分析或解释数据;在撰写手稿时,或在决定公布结果时。

附录A.贝叶斯优化结果

表A1。NN中间层的单元数。
表A1。NN中间层的单元数。
方法数据培训和测试数据比率(%)输入层中间层输出层
坦恩(Tanh)原件75:252372
原件90:102352
Tanh带辍学原件75:2523142
Tanh带辍学原件90:1023122
ReLU公司原件75:25232
ReLU公司原件90:102372
带辍学的ReLU原件75:2523142
带辍学的ReLU原件90:1023192
坦恩(Tanh)标准化(Normalized)75:252352
坦恩(Tanh)标准化(Normalized)90:102352
Tanh带辍学标准化(Normalized)75:252352
Tanh带辍学标准化(Normalized)90:1023102
ReLU公司标准化(Normalized)75:2523112
ReLU公司标准化(Normalized)90:102342
带辍学的ReLU标准化(Normalized)75:2523162
带辍学的ReLU标准化(Normalized)90:1023122
表A2。DNN的中间层中的单元数。
表A2。DNN中间层的单元数。
方法数据培训和测试数据比率(%)输入层中间层1中间层2输出层
坦恩(Tanh)原件75:25235172
坦恩(Tanh)原件90:1023292
Tanh与Dropout原件75:2523972
Tanh带辍学原件90:1023112
ReLU公司原件75:2523462
ReLU公司原件90:1023492
带辍学的ReLU原件75:25231392
带辍学的ReLU原件90:10235202
坦恩(Tanh)标准化(Normalized)75:25236172
坦恩(Tanh)标准化(Normalized)90:102342
Tanh带辍学标准化(Normalized)75:2523942
Tanh带辍学标准化(Normalized)90:1023182
ReLU公司标准化(Normalized)75:2523462
ReLU公司标准化(Normalized)90:10231072
带辍学的ReLU标准化(Normalized)75:25231692
带辍学的ReLU标准化(Normalized)90:10235212

工具书类

  1. Aksoy、Selim和Robert M.Haralick。2001.用于图像检索的特征归一化和基于似然的相似性度量。模式识别。信件22: 563–82. [谷歌学者] [交叉参考]
  2. Angelini、Eliana、Giacomo di Tollo和Andrea Roli。2008年。信贷风险评估的神经网络方法。经济与金融季度回顾48: 733–55. [谷歌学者] [交叉参考]
  3. Boguslauskas、Vytautas和Ricardas Mileris,2009年。用人工神经网络模型估计信贷风险。Izinerine Ekonomika Engerrring经济学4: 7–14. [谷歌学者]
  4. 利奥·布雷曼。1996年,装袋预测。机器学习24: 123–40. [谷歌学者] [交叉参考]
  5. 利奥·布雷曼。2001年,随机森林。机器学习45: 5–32. [谷歌学者] [交叉参考]
  6. Freund、Yoav和Robert E.Schapire。1996年,实验了一种新的boosting算法。7月3日至6日在意大利巴里举行的第十三届机器学习国际会议上提交的论文;第148-56页。[谷歌学者]
  7. 甘特、迪奥尼西奥·D·、鲍比·D·杰拉尔多和巴托洛姆·T·坦奎利格。2015年,使用反向传播算法的神经网络模型用于信用风险评估。10月12日至13日,在马来西亚槟城巴图费林吉举行的第三届国际人工智能与计算机科学会议(AICS2015)上提交的论文;第12-13页。[谷歌学者]
  8. Jayalakshmi,T.和A.Santhakumaran。2011.分类的统计归一化和反向传播。国际计算机理论与工程杂志3: 83–93. [谷歌学者]
  9. 阿德南·卡什曼。2010年,信贷风险评估神经网络:不同神经模型和学习方案的调查。带应用程序的专家系统37: 6233–39. [谷歌学者] [交叉参考]
  10. 凯马凯姆、希姆和尤内斯·布杰尔本。2015年,信贷风险预测:判别分析与神经网络方法的比较研究。会计和管理信息系统14: 60–78. [谷歌学者]
  11. 阿德南·赫什曼。2009年,信贷风险评估的神经网络模型。国际神经系统杂志19: 285–94. [谷歌学者] [交叉参考] [公共医学]
  12. 布雷特·兰茨。2015使用R进行机器学习,第2版,伯明翰:Packt出版有限公司[谷歌学者]
  13. LeCun、Yann、Yoshua Bengio和Geoffrey Hinton。2015年,深度学习。自然521: 436–44. [谷歌学者] [交叉参考] [公共医学]
  14. Oreski、Stjepan、Dijana Oreski和Goran Oreski。2012.遗传算法和人工神经网络的混合系统及其在零售信贷风险评估中的应用。带应用程序的专家系统39: 12605–17. [谷歌学者] [交叉参考]
  15. 夏皮雷,罗伯特·E·1999。助推简介。7月31日至8月6日在瑞典斯德哥尔摩举行的第十六届国际人工智能联合会议上提交的论文;第1-6页。[谷歌学者]
  16. Shapire、Robert E.和Yoav Freund。2012推进:基础和算法剑桥:麻省理工学院出版社。[谷歌学者]
  17. Sola,J.和Joaquin Sevilla。1997年。输入数据规范化对神经网络应用于复杂工业问题的重要性。核科学汇刊44: 1464–68. [谷歌学者] [交叉参考]
  18. 斯利瓦斯塔瓦、尼提什、杰里·欣顿、亚历克斯·克利舍夫斯基、伊利亚·萨茨克沃和鲁斯兰·萨拉库丁诺夫。2014.辍学:防止神经网络过度拟合的简单方法。机器学习研究杂志15: 1929–58. [谷歌学者]
  19. Yeh、I-Cheng和Che-hui Lien。2009年,数据挖掘技术对信用卡客户违约概率预测准确性的比较。带应用程序的专家系统36: 2473–80. [谷歌学者] [交叉参考]
1
德国信贷数据集在UCI机器学习数据存储库中公开可用,https://archive.ics.uci.edu/ml/datasets/statlog网站+(德语+信用+数据).
2
兰茨(2015)为机器学习方法提供了很好的解释。
请参见LeCun等人。(2015).
4
有两种典型的方法来实现机器学习。一种是使用训练数据、验证数据和测试数据,另一种是利用训练数据和测试信息。在第一种方法中,测试结果是随机确定的,我们无法获得稳健的结果。此外,不建议将小样本分成三块。因此,我们在本研究中使用了第二种方法。我们将测试结果重复100多次,以获得稳健的结果。
5
我们使用了set。种子(50)以消除绘制ROC曲线和计算AUC时随机数引起的差异。
6
基于贝叶斯优化方法确定NN和DNN中间层的单元数。(请参见附录A详细信息。)
图1。装袋接收器工作特性(ROC)曲线。(曲线下面积(AUC)=0.575,F-score=0.520)。
图1。装袋的受试者工作特性(ROC)曲线。(曲线下面积(AUC)=0.575,F-score=0.520)。
Jrfm 11 00012 g001号
图2。增压的ROC曲线。(AUC=0.769,F-score=0.744)。
图2。用于升压的ROC曲线。(AUC=0.769,F-score=0.744)。
Jrfm 11 00012 g002号
图3。随机森林的ROC曲线。(AUC=0.605,F-score=0.714)。
图3。随机森林的ROC曲线。(AUC=0.605,F-score=0.714)。
Jrfm 11 00012 g003号
图4。深度神经网络(DNN)(Tanh)的ROC曲线。(AUC=0.753,F-score=0.721)。
图4。深度神经网络(DNN)(Tanh)的ROC曲线。(AUC=0.753,F-score=0.721)。
Jrfm 11 00012 g004型
图5。神经网络(NN)的ROC曲线(Tanh)。(AUC=0.768,F-score=0.741)。
图5。神经网络(NN)的ROC曲线(Tanh)。(AUC=0.768,F-score=0.741)。
Jrfm 11 00012 g005型
图6。DNN的ROC曲线(Tanh w/辍学)。(AUC=0.600,F-score=0.620)。
图6。DNN的ROC曲线(Tanh w/辍学)。(AUC=0.600,F-score=0.620)。
Jrfm 11 00012 g006号
图7。NN的ROC曲线(Tanh w/辍学)。(AUC=0.704,F-score=0.717)。
图7。NN的ROC曲线(Tanh w/辍学)。(AUC=0.704,F-score=0.717)。
Jrfm 11 00012 g007公司
图8。DNN(ReLU)的ROC曲线。(AUC=0.751,F-score=0.734)。
图8。DNN(ReLU)的ROC曲线。(AUC=0.751,F-score=0.734)。
Jrfm 11 00012 g008公司
图9。NN(ReLU)的ROC曲线。(AUC=0.757,F-score=0.727)。
图9。NN(ReLU)的ROC曲线。(AUC=0.757,F-score=0.727)。
Jrfm 11 00012 g009
图10。DNN的ROC曲线(ReLU w/退出)。(AUC=0.765,F-score=0.735)。
图10。DNN的ROC曲线(ReLU w/退出)。(AUC=0.765,F-score=0.735)。
Jrfm 11 00012 g010型
图11。NN的ROC曲线(ReLU w/Decopout)。(AUC=0.767,F-score=0.730)。
图11。NN的ROC曲线(ReLU w/Decopout)。(AUC=0.767,F-score=0.730)。
Jrfm 11 00012 g011号
表1。混淆矩阵。
表1。混淆矩阵。
实际班级
事件无事件
预测类事件TP(真阳性)FP(假阳性)
无事件FN(假阴性)TN(真阴性)
表2。每种方法对原始数据的预测精度。
表2。每种方法对原始数据的预测精度。
(a) 原始数据:培训和测试数据的比例为75%至25%
方法训练数据准确率测试数据的准确率
平均(%)标准偏差平均(%)标准偏差
装袋80.130.00355.980.008
增压71.660.00371.060.008
随机森林69.590.54458.500.844
方法训练数据准确率测试数据的准确率
模型激活功能中间层平均(%)标准偏差平均(%)标准偏差
挪威船级社坦恩(Tanh)270.660.72168.930.972
NN公司坦恩(Tanh)171.010.56969.590.778
挪威船级社Tanh带辍学258.473.56658.463.404
神经网络Tanh带辍学167.271.23767.141.341
挪威船级社ReLU公司269.570.70768.610.863
NN公司ReLU公司168.810.70868.301.008
挪威船级社带辍学的ReLU269.970.90369.010.956
NN公司带辍学的ReLU170.120.63769.480.881
(b) 原始数据:培训和测试数据的比例为90%至10%
方法训练数据准确率测试数据的准确率
平均(%)标准偏差平均(%)标准偏差
装袋79.580.00356.230.015
增压71.570.00370.880.011
随机森林68.550.45358.771.331
方法训练数据准确率测试数据的准确率
模型激活功能中间层平均(%)标准偏差平均(%)标准偏差
挪威船级社坦恩(Tanh)269.640.68369.311.325
NN公司坦恩(Tanh)170.490.55069.611.312
挪威船级社Tanh带辍学257.293.68157.274.117
NN公司Tanh带辍学166.371.61966.251.951
挪威船级社ReLU公司269.490.69568.761.408
NN公司ReLU公司169.160.72868.541.261
挪威船级社带辍学的ReLU269.740.79668.841.438
NN公司带辍学的ReLU170.260.57369.551.210
表3。每种方法对归一化数据的预测精度。
表3。每种方法对归一化数据的预测精度。
(a) 规范化数据:培训和测试数据的比例为75%至25%
方法训练数据的准确率测试数据的准确率
平均(%)标准偏差平均(%)标准偏差
装袋80.120.00356.150.008
增压71.660.00470.950.007
随机森林69.670.56558.390.880
方法训练数据准确率测试数据的准确率
模型激活功能中间层平均(%)标准偏差平均(%)标准偏差
挪威船级社坦恩(Tanh)271.140.73268.750.912
NN公司坦恩(Tanh)170.640.65269.420.763
挪威船级社Tanh带辍学2574.32456.694.485
NN公司Tanh带辍学168.090.64168.010.904
挪威船级社ReLU公司270.370.62769.350.856
神经网络ReLU公司170.920.61569.370.943
挪威船级社带辍学的ReLU2700.81168.960.946
NN公司带辍学的ReLU170.250.69269.560.813
(b) 规范化数据:培训和测试数据的比例为90%至10%
方法训练数据准确率测试数据的准确率
平均(%)标准偏差平均(%)标准偏差
装袋79.540.00356.280.013
增压71.500.00370.800.012
随机森林68.660.47558.831.368
方法训练数据准确率测试数据的准确率
模型激活功能中间层平均(%)标准偏差平均(%)标准偏差
挪威船级社坦恩(Tanh)270.180.69869.351.382
NN公司坦恩(Tanh)170.520.59469.511.309
挪威船级社Tanh带辍学258.045.13458.145.016
神经网络Tanh带辍学167.331.28567.131.787
挪威船级社ReLU公司271.410.71069.171.334
NN公司ReLU公司169.550.77268.971.426
挪威船级社带辍学的ReLU269.760.78569.131.426
NN公司带辍学的ReLU169.880.70169.251.279

分享和引用

MDPI和ACS样式

Hamori,S。;卡瓦伊,M。;库姆,T。;村上,Y。;C.渡边。合奏学习还是深度学习?应用于违约风险分析。J.风险财务管理。 201811, 12.https://doi.org/10.3390/jrfm11010012

AMA风格

Hamori S、Kawai M、Kume T、Murakami Y、Watanabe C。合奏学习还是深度学习?应用于违约风险分析。风险与财务管理杂志. 2018; 11(1):12.https://doi.org/10.3390/jrfm11010012

芝加哥/图拉宾风格

滨里、Shigeyuki、Minami Kawai、Takahiro Kume、Yuji Murakami和Chikara Watanabe。2018.“集成学习还是深度学习?应用于违约风险分析”风险与财务管理杂志11号,1号:12。https://doi.org/10.3390/jrfm11010012

文章指标

返回页首顶部