杂志的下一篇文章
物联网中基于多模式学习的设备故障预测
下一篇特刊文章
基于正断层X射线OPG图像的牙科疾病分类深度学习模型
期刊上的上一篇文章
复杂多终端场景下MEC节点的部署与分配策略
特刊上一篇文章
基于DeepLab v3的乳腺癌影像报告语义分割和乳腺超声图像数据系统词汇+
 
 
订购文章重印
字体类型:
宋体 佐治亚州 宋体,Verdana
字体大小:
Aa公司 Aa公司 Aa公司
行距:
列宽:
背景:
第条

一种基于边缘的选择方法,用于改进乳腺超声图像中多个深度学习对象检测模型获得的感兴趣区域定位

通过
穆罕默德·达乌德
1,*,
Aamer Al-Ali公司
1,
拉米·阿拉兹莱
1,
Mahasen S.Al-Najar公司
2,
巴哈·A·阿尔赛菲
,
穆斯塔法Z.阿里
4
萨赫勒·阿鲁内赫
5
1
约旦安曼马达巴街德国约旦大学计算机工程系,约旦安曼11180
2
约旦大学医院放射诊断科,约旦安曼拉尼亚皇后街,邮编:11942
约旦科技大学网络工程与安全系,约旦Irbid 22110
4
约旦科技大学计算机信息系统系,约旦Irbid 22110
5
阿拉伯联合酋长国阿布扎比28街艾因大学工程学院网络安全项目
*
信件应寄给的作者。
传感器 2022,22(18), 6721;https://doi.org/10.3390/s22186721
收到的提交文件:2022年7月23日/修订日期:2022年8月21日/接受日期:2022年8月24日/发布日期:2022年9月6日

摘要

:
计算机辅助诊断(CAD)系统可用于处理乳腺超声(BUS)图像,以提高乳腺癌的诊断能力。许多CAD系统通过使用传统的基于纹理的分类模型和基于深度学习的分类模型来分析BUS图像中包含肿瘤的感兴趣区域(ROI)。因此,这些系统的开发需要自动方法来定位BUS图像中包含肿瘤的ROI。深度学习对象检测模型可以用于定位包含肿瘤的ROI,但一个模型生成的ROI可能比其他模型生成的ROI更好。在本研究中,提出了一种新的方法,称为基于边缘的选择方法,用于分析不同深度学习对象检测模型产生的ROI,目的是选择能够提高肿瘤区域定位的ROI。该方法使用最近引入的DexiNed深度学习边缘检测模型计算出的BUS图像边缘图。据我们所知,我们的研究是第一项采用深度学习边缘检测模型来检测BUS图像中的肿瘤边缘的研究。将提出的基于边缘的选择方法应用于分析四种深度学习对象检测模型生成的ROI。使用两个BUS图像数据集评估了所提出的基于边缘的选择方法和四个深度学习对象检测模型的性能。第一个数据集用于执行交叉验证评估分析,是一个包含380个BUS图像的私有数据集。第二个数据集用于执行泛化评估分析,是包含630个BUS图像的公共数据集。对于交叉验证评估分析和泛化评估分析,该方法获得了总体ROI检测率、平均精度、平均召回率和平均F1-核心值 98 % , 0.91 , 0.90 、和 0.90 分别为。此外,结果表明,所提出的基于边缘的选择方法优于四种深度学习对象检测模型以及三种基线组合方法,这些方法可用于组合四种深度教育对象检测模型生成的ROI。这些发现表明,可以利用我们提出的方法分析使用不同深度学习对象检测模型生成的ROI,以选择提高肿瘤区域定位的ROI。

1.简介

乳腺癌是全球女性死亡的主要原因[1]. 国际癌症研究机构报告,2020年全球有685000人死于乳腺癌[1]. 早期诊断乳腺癌对实现有效治疗和提高生存率至关重要[2]. 许多成像设备被用于诊断乳腺癌,包括乳房X射线照相术[],超声波[4],磁共振成像[5],弹性成像[6]和微波成像[7]. 目前,乳腺X射线摄影术是诊断乳腺癌的主要成像手段[8]. 此外,乳腺超声(BUS)成像通常被用作乳腺X射线照相术的辅助手段,目的是增强诊断过程[9,10]. 尽管BUS成像提供了改进的筛选功能,但BUS图像的解释仍具有挑战性,需要经验丰富的放射科医生[11].
计算机辅助诊断(CAD)系统可用于处理总线图像并获得与肿瘤相关的计算机分类[12]. CAD系统生成的分类为放射科医生提供了客观的第二意见,旨在加强诊断过程[13]. 许多CAD系统,例如[14,15],分析BUS图像中包含肿瘤的感兴趣区域(ROI),提取手工纹理特征以量化肿瘤。使用计算机分类器分析提取的纹理特征,以将肿瘤分类为良性或恶性。此外,许多最近的研究,例如[16,17,18],采用深度学习分类模型来分析BUS图像中包含肿瘤的ROI,目的是实现肿瘤的有效分类。因此,开发全自动CAD系统需要使用基于计算机的方法来定位BUS图像中包含肿瘤的ROI[19]. 自动识别BUS图像中包含肿瘤的ROI有两种主要方法。在第一种方法中,使用分割算法对肿瘤进行轮廓提取,并使用检测到的肿瘤轮廓来识别包含肿瘤的ROI[14]. 在第二种方法中,使用ROI定位方法直接分析BUS图像,以定位包含肿瘤的ROI[18]. 当前的研究重点是开发自动ROI定位方法,该方法可以直接分析BUS图像来定位包含肿瘤的ROI。
一些研究小组提出了自动定位BUS图像中包含肿瘤的ROI的传统方法。例如,Shan等人[20]介绍了一种两步ROI定位方法。第一步,分析BUS图像的纹理和空间特征,以定位图像中肿瘤区域内的种子点。在第二步中,使用区域生长算法处理BUS图像,根据第一步中获得的种子点定位包含肿瘤的ROI。然而,Shan等人引入的方法[20]当肿瘤与周围组织相比对比度低时,定位精度有限。Liu等人[21]介绍了一种自动ROI定位方法,该方法使用基于纹理的支持向量机分类器识别BUS图像中的一组候选ROI。根据候选ROI的垂直位置及其相对于图像中心的位置对其进行分析,以确定包含肿瘤的最终ROI。刘等人介绍的方法[21]由于用于确定最终ROI的非稳健标准,性能可能有限。Xian等人[19]针对Liu等人提出的方法的局限性,提出了一种自适应四步ROI定位方法[21]. 第一步,对BUS图像进行预处理,使图像平滑,改善低回声区域的外观。第二步,分析BUS图像中的乳房解剖,以确定图像中的参考点。参考点使用多路径搜索算法进行处理,以定位肿瘤区域内的种子点。在第三步中,使用一组形态学操作和自适应阈值算法对预处理的BUS图像进行分析,以识别一组预期包含肿瘤的候选ROI。在第四步中,使用选择算法基于种子点处理候选ROI,以识别包含肿瘤的最终ROI。实验结果报告于[19]表明该方法实现了较低的召回率,即 27.7 % 30.9 % 分别用于良性和恶性BUS图像。
在过去几年中,深度学习对象检测模型,如[22,23,24,25,26,27]在计算机视觉和图像分析的一般领域取得了巨大成功。然而,一些研究小组调查了应用深度学习对象检测模型定位BUS图像中ROI的可行性。例如,Cao等人[18]评估了五种深度学习对象检测模型对BUS图像中包含肿瘤的ROI进行定位的能力。这五种型号是单发多盒探测器(SSD)型号[22]基于快速区域的卷积神经网络(Fast R-CNN)模型[23],基于快速区域的卷积神经网络(Faster R-CNN)模型[24],“只看一次”(YOLO)模型[25]和YOLO版本3(YOLOv3)型号[26]. 此外,Cao等人[18]将这五种深度学习对象检测模型的性能与Xian等人介绍的传统方法进行了比较[19]. 报告的结果[18]结果表明,这五种深度学习对象检测模型的性能优于Xian等人提出的传统方法[19]. 这一发现表明,使用深度学习对象检测模型可以有效定位公交车图像中的ROI。此外,报告的结果[18]表明与其他四个深度学习对象检测模型相比,SSD深度学习对象检测模型获得了更高的ROI定位结果。在另一项研究中[28]、EfficientDet-D0[29]和CenterNet[27]深入学习对象检测模型在定位BUS图像中包含肿瘤的ROI的能力方面进行了比较。报告的结果[28]表明当使用相同的BUS图像数据集进行训练时,EfficientDet-D0和CenterNet模型实现了可比较的ROI定位性能。在最近的一项研究中,Yap等人[30]提出了一种基于Faster R-CNN模型定位BUS图像中包含肿瘤的ROI的新方法[24]. 在这种方法中,对灰度BUS图像进行预处理,以获得锐化的BUS图像和对比度增强的BUS图片。将原始BUS图像、锐化后的BUS图像和对比度增强后的BUS图像作为三个RGB图像通道,构建一个人工RGB图像。将人工RGB图像应用于Faster R-CNN模型,以改进包含肿瘤的ROI的定位。
在当前的研究中,提出了一种新的选择方法,称为基于边缘的选择方法来分析不同深度学习对象检测模型生成的ROI,目的是选择能够提高肿瘤所在区域定位的ROI。基于边缘的选择方法基于使用最近引入的密集极端初始网络(DexiNed)模型为公交车图像计算的边缘图[31]. 事实上,DexiNed模型是一种深度学习模型,可以实现有效的边缘检测。据我们所知,我们的研究是首次采用深度学习边缘检测模型检测BUS图像中肿瘤的边缘。提出的基于边缘的选择方法用于分析四种深度学习对象检测模型(即Faster R-CNN)生成的ROI[24],固态硬盘[22],效率检测-D0[29]和CenterNet[27]以选择提供肿瘤区域的改进定位的ROI。正如Yap等人的研究所建议的那样,在使用四种深度学习对象检测模型定位ROI之前,将BUS图像转换为人工RGB图像以提高ROI的定位能力[30]. 使用两个BUS图像数据集评估了所提出的基于边缘的选择方法和四个深度学习对象检测模型的性能。第一个数据集名为JUH数据集,包含380个BUS图像。第二个数据集名为BUSI数据集,包括630个BUS图像。结果表明,所提出的基于边缘的选择方法在ROI检测率和局部ROI质量方面能够改进使用四种深度学习对象检测模型生成的ROI定位。此外,使用JUH数据集比较了所提出的基于边缘的选择方法与三种基线组合方法的性能,这三种方法可用于组合四个深度学习对象检测模型生成的ROI。这些基线组合方法是基于平均值、并集和交集的组合方法。比较结果表明,所提出的基于边缘的选择方法的性能优于三种基线组合方法。我们提出的基于边缘的选择方法的一个主要优点是能够分析使用任何一组深度学习对象检测模型生成的ROI,以选择提高肿瘤区域定位的ROI。
本文的其余部分组织如下。第2节提出了一种基于边缘的选择方法。此外,第2节描述了使用提议的基于边缘的选择方法来分析Faster R-CNN、SSD、EfficientDet-D0和CenterNet深度学习对象检测模型生成的ROI。文中还提供了用于评估所提出的基于边缘的选择方法以及四种深度学习对象检测模型的性能的实验分析第2节此外,第2节描述了用于比较所提出的基于边缘的选择方法和三种基线组合方法的分析。第3节,第4节第5节分别给出结果、讨论和结论。

2.方法和材料

2.1. 提出的基于边缘的选择方法

对于给定的BUS图像,可以使用不同的深度学习对象检测模型来生成ROI,该ROI旨在定位包含肿瘤的区域。一个深度学习对象检测模型生成的ROI可能比其他模型生成的ROI更好。在本研究中,提出了一种基于边缘的选择方法,目的是分析不同深度学习对象检测模型生成的ROI,以选择ROI,从而改进肿瘤所在区域的定位。
基于边缘的选择方法基于使用DexiNed深度学习边缘检测模型为BUS图像计算的边缘图[31]. DexiNed型号包括一个带有6个主块的编码器。每个主块的输出应用于上采样块,以生成中间边缘贴图。将6个中间边缘图进行融合,生成最终的边缘图。DexiNed模型的一个主要优点是能够以端到端的学习方式从头开始训练模型,以实现有效的边缘检测。据我们所知,我们的研究是首次采用深度学习边缘检测模型检测BUS图像中肿瘤的边缘。训练DexiNed模型以计算BUS图像的边缘图的过程如所述第2.3节。DexiNed模型计算的边缘贴图表示为像素强度介于0和255之间的灰度图像。强度值接近255的像素表示肿瘤的边缘。此外,强度值接近0的像素表示BUS图像中不包含与肿瘤对应的边缘的区域。在当前研究中,使用DexiNed模型计算的边缘图通过将边缘图除以值255进行标准化。因此,标准化边缘贴图中的像素的强度值介于0和1之间。为了简单起见,在本文的其余部分中,我们将归一化边缘映射称为边缘映射。
使用DexiNed模型为给定BUS图像计算的边缘图可用于分析使用不同深度学习对象检测模型为该BUS图像生成的ROI。例如,考虑中显示的BUS图像图1a.金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)如所示图1b.黄金标准肿瘤轮廓是通过要求在BUS成像方面有15年经验的放射科医生(第四作者)对肿瘤进行三次分割得到的。将三个手动分割的平均值作为金标准肿瘤轮廓。此外,金标准ROI被视为包含金标准肿瘤轮廓的最小矩形边界框。这种识别金标准ROI的方法已经在许多以前的研究中使用,例如[18,30]. 使用DexiNed模型为BUS图像计算的边缘图如所示图1c。图1d、 e显示了分别覆盖在BUS图像和边缘地图上的三个假设ROI。第一个ROI(称为ROI 1)覆盖金标准ROI的一个子区域,其面积小于金标准RO 50 % 第二个ROI(称为ROI 2)覆盖金标准ROI,但其面积比金标准RO大 25 % 第三个投资回报率(ROI 3)涵盖金标准投资回报率,但其面积比金标准投资报酬率大 75 % 因此,与ROI 1和ROI 3相比,ROI 2可以更好地定位包含肿瘤的区域。可以对三个假设ROI中的每一个进行分析,以选择ROI,从而改进包含肿瘤的区域的定位。
提出的基于边缘的选择方法采用了两个指标。第一个指标,表示为S公司,是ROI内像素的边缘贴图强度之和。的价值S公司可以计算如下:
S公司 = = 电子 j个 = j个 j个 电子 E类 M(M) ( , j个 )
哪里 是位于ROI左侧的像素的水平索引, 电子 是位于ROI右侧的像素的水平索引, j个 是位于ROI上侧的像素的垂直索引, j个 电子 是位于ROI下侧的像素的垂直索引,以及 E类 M(M) ( , j个 ) 是具有坐标的像素处的边缘贴图的值 ( , j个 ) 。的值S公司当深度学习对象检测模型生成的ROI能够有效覆盖与肿瘤边界相关的边缘时,ROI会增加。因此S公司当ROI包含大量真正像素时,即位于金标准ROI和深度学习对象检测模型生成的ROI中的像素,则会增加。例如S公司计算的ROI 1、ROI 2和ROI 3分别等于5507、12683和12780。因此,ROI 1的价值为S公司这比S公司计算ROI 2和ROI 3。此外S公司ROI 2的计算值接近,但小于S公司计算ROI 3。指示器S公司提供了一个有效的指标,以消除无法有效覆盖肿瘤边界的ROI 1。然而,指标,S公司,没有提供区分ROI 2和ROI 3的良好指标。
第二个指标是边缘贴图的密度,表示为D类,它表示ROI内具有高边缘贴图强度值的像素占ROI内像素总数的百分比。的价值D类分两步计算。在第一步中,使用自适应模间阈值化方法对边缘图进行二值化[32]. 二值化边缘图中具有值1的像素对应于边缘图中具有高强度值的像素。此外,二值化边缘贴图中的值为0的像素对应于边缘贴图中具有低强度值的像素。在第二步中D类计算如下:
D类 = = 电子 j个 = j个 j个 电子 B类 E类 M(M) ( , j个 ) M(M) × N个
哪里 B类 E类 M(M) ( , j个 ) 是带坐标的像素处二值化边缘贴图的值 ( , j个 ) ,N个是以像素为单位测量的ROI宽度,以及M(M)是以像素为单位测量的ROI高度。因此D类当ROI包含大量假阳性像素时,会降低。事实上,假阳性像素表示位于深度学习对象检测模型生成的ROI中的像素,但不包括在金标准ROI中。例如,图1f显示了为中显示的边缘图计算的二值化边缘图图1c以及三个假设ROI。的值D类ROI 1、ROI 2和ROI 3的计算值分别等于0.25、0.26和0.18。因此D类该指标为区分投资回报率2和投资回报率3提供了一个有效的指标,其中两个投资回报率接近S公司值,但它们在假阳性像素数方面不同。
这两个指标,S公司D类,组合以获得单个度量, S公司 D类 = S公司 × D类 ,可用于选择ROI,以改进包含肿瘤的区域的定位。特别是投资回报率最高 S公司 D类 之所以选择该值,是因为它最大化了真阳性像素的数量,并最小化了所选ROI中包含的假阳性像素的数目。例如,在图1f、 的 S公司 D类 ROI 1、ROI 2和ROI 3的计算值分别等于1377、3298和2300。因此,ROI 2被选为提高肿瘤所在区域定位的ROI。
中提供的程序图2描述了所提出的基于边缘的选择方法的操作。程序的输入是边缘图, E类 M(M) BUS图像和集合的, R(右) O(运行) ,包括深度学习对象检测模型生成的ROI。该程序的输出是由提议的基于边缘的选择方法选择的ROI( 电子 电子 c(c) t吨 电子 d日 _ R(右) O(运行) ). 该过程使用的功能是 b条 n个 第页 z(z) 电子 ( . ) 接受边缘贴图的函数( E类 M(M) )并返回二值化的边缘贴图 电子 n个 t吨 小时 ( . ) 接受集合的函数 R(右) O(运行) 并返回集合中包含的ROI数 c(c) o(o) 单位 t吨 电子 _ S公司 ( . ) 接受ROI并返回S公司ROI的价值,以及 c(c) o(o) 单位 t吨 电子 _ D类 ( . ) 接受ROI并返回D类ROI的价值。

2.2. 采用所提出的基于边缘的选择方法来分析由更快的R-CNN、SSD、EfficientDet-D0和CenterNet模型生成的ROI,并选择能够有效检测包含肿瘤的区域的ROI

图3提供了一个图形说明,说明了我们应用所提出的基于边缘的选择方法来分析不同深度学习对象检测模型生成的ROI的过程。首先,将BUS图像转换为人工RGB图像。调整人工RGB图像的大小以匹配深度学习对象检测模型的输入图像大小,并将调整后的人工RGB图片用作深度学习对象测试模型的输入图片。在当前的研究中,使用了四种深度学习对象检测模型,这些模型包括Faster R-CNN、SSD、EfficientDet-D0和CenterNet。以下总结了四种深度学习对象检测模型之间的主要异同表1每个深度学习对象检测模型用于定位包含肿瘤的ROI。此外,不同深度学习对象检测模型生成的ROI被调整大小,以匹配原始BUS图像的大小。将调整大小的ROI组合起来,以合成投资回报率此外,使用DexiNed深度学习边缘检测模型对BUS图像进行处理,以获得边缘图,称为相对长度单位.设置,投资回报率和边缘贴图,相对长度单位,应用于所提出的基于边缘的选择方法来选择ROI,该方法称为选择的ROI,这提供了包含肿瘤的区域的改进的定位。以下小节详细描述了此过程的每个组件。

2.2.1. 公交车图像到人工RGB图像的转换

可以使用深度学习对象检测模型直接处理BUS图像,以定位包含肿瘤的ROI。然而,Yap等人的研究[30]建议通过对灰度BUS图像进行预处理,生成两个滤波图像,即锐化的BUS图像和对比度增强的BUS图片,可以实现改进的ROI定位。将原始BUS图像和两幅滤波后的图像作为三个图像通道,构造出一幅人工RGB图像。人工RGB图像可以通过深度学习对象检测模型进行处理,以实现改进的ROI定位。在当前研究中,Yap等人提出的程序[30]将每个BUS图像转换为一个人工RGB图像,并将人工RGB图作为四个深度学习对象检测模型中每个模型的输入图像,以定位包含肿瘤的ROI。
例如,考虑中显示的恶性BUS图像图4a、 这与中显示的BUS图像相同图1a.金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)显示在图4b。图4c、 d显示了分别为中的BUS图像计算的锐化图像和对比度增强图像图4a.此外,图4e显示了通过连接BUS图像、锐化图像和对比度增强图像构建的人工RGB图像。

2.2.2. 利用更快的R-CNN模型定位包含肿瘤的ROI

更快的R-CNN模型[24]是一个两阶段对象检测模型,它使用预处理卷积神经网络(CNN)来分析输入图像。与Yap等人的研究类似[30],该模型被配置为使用ResNet-50 CNN[33]使用ImageNet数据库进行预处理[34]. 使用ResNet-50 CNN的最后一个卷积层提取深度特征图,用于在输入图像中定位肿瘤。提取的深度特征图分两个阶段进行处理。在第一阶段,区域提议网络(RPN)生成矩形区域提议,表示输入图像中可能包含候选对象(即肿瘤)的潜在区域。生成的区域方案具有预定义的数量以及预定义的大小和纵横比。RPN还为每个生成的地区提案计算客观性得分。与Yap等人的研究类似[30],RPN配置为生成100个区域提案。此外,该地区的提案将有四种不同的规模 ( 1 4 , 1 2 , 1 , 2 ) 和三种不同的纵横比 ( 1 2 , 1 , 2 ) 在第二阶段,使用快速R-CNN检测器对RPN获得的区域建议进行细化[23]. 特别是,Fast R-CNN检测器用于处理区域的建议以及使用ResNet-50 CNN提取的特征地图。每个区域建议都用于从特征地图中提取特征。提取的特征使用ROI池层进行处理,以计算每个区域建议的固定大小的特征向量。使用盒分类器对计算出的特征向量进行分析,以对区域建议进行分类和细化。使用此过程,可以获得两个输出。第一个输出是Faster R-CNN模型所考虑的对象类的估计可能性,其中在我们的研究中使用了一个对象类(即肿瘤)。第二个输出是已识别方框的坐标。选择肿瘤可能性最高的框作为包含肿瘤的ROI。
使用MS-COCO数据集对更快的R-CNN模型进行了预训练[35]. 该数据集表示用于对象检测的大规模图像数据库,其中包括380000张图像,这些图像被分为90多个对象类别。用于预训练Faster R-CNN模型的参数如所述[24]. 下面描述了微调Faster R-CNN模型以定位人工RGB图像中包含肿瘤的ROI的过程第2.3节.
例如,考虑中显示的BUS图像和人工RGB图像图4a、 分别为e。Faster R-CNN模型产生的ROI如所示图4f、 g分别作为紫色方框覆盖在BUS图像和边缘地图上。

2.2.3. 利用SSD模型定位包含肿瘤的ROI

SSD型号[22]是一个单阶段对象检测模型,它包括两个主要组件:基础网络和辅助结构。基本网络的目的是从输入图像中提取深层特征图,它是使用一个经过预处理的CNN来实现的,该CNN被截断以消除分类层。与Faster R-CNN模型类似,SSD模型配置为使用ResNet-50 CNN,该CNN使用ImageNet数据库作为基础网络进行预处理。辅助结构包括一组附加到基础网络的多尺度卷积层。这些卷积层旨在预测目标物(即肿瘤)在多个尺度上。正如Miao等人的研究所建议的那样[36]使用了6个线性递减(0.95~0.2)的多尺度卷积层。此外,该模型配置为使用三种纵横比 ( 1 2 , 1 , 2 ) 多尺度卷积层获得的预测使用非最大值抑制进行处理,以获得包含目标对象的最终框。最后一个框被视为包含肿瘤的ROI。
SSD模型已使用MS-COCO数据集进行了预训练。用于对SSD模型进行预培训的参数如所述[22]. 下面描述了微调SSD模型以定位包含人造RGB图像中肿瘤的ROI的过程第2.3节.
例如,考虑中显示的BUS图像和人工RGB图像图4a、 分别为e。SSD模型生成的ROI如所示图4f、 g分别作为红色方框覆盖在BUS图像和边缘地图上。

2.2.4. 利用高效Det-D0模型定位含有肿瘤的ROI

EffifientDet-D0模型[29]是一个单阶段对象检测模型,包括三个主要组件:主干网络、加权双向特征金字塔网络(BiFPN)以及类和框预测网络。EfficientNet-B0 CNN[37]使用ImageNet数据库预训练的作为骨干网络。EfficientNet-B0 CNN的目的是处理输入图像并计算深度特征图。BiFPN从主干网络中提取深层特征,并沿自下而上和自上而下的方向进行多尺度加权特征融合。最后,类和盒预测网络分析融合特征,以预测和定位目标对象(即肿瘤)。EffificientDet-D0模型配置为使用三种纵横比 ( 1 2 , 1 , 2 ) 。EffificientDet-D0模型的其他参数设置为默认值,如中所述[29].
已使用MS-COCO数据集对EffifientDet-D0模型进行了预处理。用于预培训EffificientDet-D0模型的参数如所述[29]. 微调EfficientDet-D0模型以定位人工RGB图像中包含肿瘤的ROI的过程在第2.3节.
例如,考虑中显示的BUS图像和人工RGB图像图4a、 分别为e。EffifientDet-D0模型产生的ROI如所示图4f、 g分别作为青色方框覆盖在BUS图像和边缘地图上。

2.2.5. 利用CenterNet模型定位包含肿瘤的ROI

CenterNet模型[27]是一个采用无锚点方法进行目标检测的单阶段对象检测模型。特别地,对象检测问题表示为关键点定位和边界盒回归问题[27]. 该模型使用卷积编码器-解码器主干网络处理输入图像,以提取支持目标检测的特征地图。在本研究中,主干网络配置为使用ImageNet per-trained ResNet-50 CNN。使用中心池对特征图进行处理,以计算中心热图,该热图旨在预测目标对象的中心关键点。此外,使用级联角点池处理特征图以计算角点热图,其目的是估计可能包含目标对象的潜在边界框的角点。基于预测的中心关键点分析潜在的边界框,以识别一组预期包含目标对象的最终边界框。选择得分最高的边界框作为包含肿瘤的ROI。
使用MS-COCO数据集对CenterNet模型进行预处理。用于预先培训CenterNet模型的参数如所述[27]. 以下描述了微调CenterNet模型以定位包含人造RGB图像中肿瘤的ROI的过程第2.3节.
例如,考虑中显示的BUS图像和人工RGB图像图4a、 分别为e。CenterNet模型生成的ROI如所示图4f、 g分别作为绿色框覆盖在BUS图像和边缘地图上。

2.2.6. 利用所提出的基于边缘的选择方法选择能够有效检测肿瘤区域的ROI

提出的基于边缘的选择方法用于处理Faster R-CNN、SSD、EfficientDet-D0和CenterNet模型生成的四个ROI,目的是选择ROI,以改进BUS图像中包含肿瘤的区域的定位。例如,考虑中的ROI图4f、 g由Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成。这个 S公司 D类 Faster R-CNN、SSD、EfficientDet-D0和CenterNet模型生成的ROI的计算值分别等于2732、2328、3173和3605。这个 S公司 D类 CenterNet模型生成的ROI计算值高于 S公司 D类 为其他三个模型生成的ROI计算的值。因此,CenterNet模型生成的ROI(绿色框)是通过建议的基于边缘的选择方法选择的,如所示图4h.为了便于通过所提出的基于边缘的选择方法选择的ROI与金标准ROI之间的比较,图4h还显示了金标准ROI(黄色方框)。

2.3. 绩效评估

2.3.1. 总线图像数据集

已使用两个总线图像数据集进行实验评估。第一个数据集称为约旦大学医院(UJH)数据集,包括163个恶性和217个良性BUS图像。因此,UJH数据集中包含的总线图像总数为380个图像。所有图像都是为约旦安曼UJH的女性患者采集的。对于每个患者,数据集中包含一个BUS图像。每个图像包含一个乳腺肿瘤。Acuson S2000超声波系统(德国慕尼黑西门子公司)用于获取总线图像。超声系统配备了14L5换能器。采集的BUS图像的平均±标准偏差大小沿轴向为479±110像素,沿横向为546±60像素。UJH的机构审查委员会已经批准了该研究的方案。此外,还收集了所有患者签署的研究方案知情同意书。使用活检程序将BUS图像分为良性或恶性。对于每个BUS图像,金标准肿瘤轮廓和金标准ROI是使用中描述的过程获得的第2.1节.
第二个数据集是公共数据集,称为BUSI数据集[38]其中包括210个恶性和437个良性BUS图像。因此,BUSI数据集中包含的BUS图像总数为647个图像。该数据集于2018年在埃及开罗Baheya女子癌症早期检测和治疗医院获得。使用LOGIQ E9和LOGIQ E9 Agile系统(美国伊利诺伊州芝加哥GE Healthcare Inc.)进行超声成像。超声系统配备了ML6-15-D矩阵传感器。采集的BUS图像的平均±标准偏差大小沿轴向为495±73像素,沿横向为609±120像素。数据集中提供的总线图像的黄金标准轮廓由经验丰富的放射科医生绘制。在当前的研究中,ROI定位过程是在假设BUS图像包含一个肿瘤的情况下进行的。然而,BUSI数据集包含17个带有多个肿瘤的BUS图像。这17个总线图像已被删除。因此,本研究中使用的最终数据集由630张BUS图像组成(209张为恶性,421张为良性)。BUSI数据集中包含的BUS图像的金标准ROI是使用与UJH数据集相同的程序确定的。

2.3.2. 使用UJH数据集评估所提出的基于边缘的选择方法和四个深度学习对象模型的性能

UJH数据集用于微调和测试Faster R-CNN、SSD、EfficientDet-D0和CenterNet深度学习对象检测模型。微调和测试过程采用十倍交叉验证程序进行。在这个交叉验证过程中,380幅人工RGB图像(对应于UJH数据集中包含的380幅BUS图像)被随机分为10个大小相等的图像子集。因此,每个子集包括38个人工RGB图像。在第一次折叠中,第一个子集中包含的图像用作测试图像,其余九个子集用于训练模型。在第二部分中,第二个子集用于测试,其余子集用于训练。这个过程重复了十次,以确保十个子集中包含的图像用作测试图像。使用随机梯度下降优化器对四个深度学习对象检测模型进行了训练[39],学习率为0.01,学时数等于100。此外,使用UJH数据集训练和测试DexiNed深度学习边缘检测模型,该模型被提出的基于边缘的选择方法用于计算BUS图像的边缘图。DexiNed模型的训练和测试是使用上述十倍交叉验证程序进行的。DexiNed模型的训练是使用随机梯度下降优化器进行的,学习率为0.0001,epoch数等于100。
从ROI检测率和局部ROI的质量方面评估了Faster R-CNN模型、SSD模型、EfficientDet-D0模型、CenterNet模型和所提出的基于边缘的选择方法的性能。ROI检测率定义为ROI定位技术生成的ROI定位部分或完全与相应金标准ROI重叠的图像数量除以图像总数。使用精度、召回率和F1分数这三个指标来评估本地化ROI的质量。对于给定的BUS映像,这三个指标可以计算如下[18]:
精密度 = | 投资回报率 GS公司 投资回报率 Pred公司 | | 投资回报率 Pred公司 | 召回 = | 投资回报率 GS公司 投资回报率 Pred公司 | | 投资回报率 GS公司 | F类 1 - 分数 = 2 × 精密度 × 召回 精密度 + 召回
哪里 投资回报率 GS公司 是金标准ROI, 投资回报率 Pred公司 是预测的ROI, | 投资回报率 GS公司 投资回报率 Pred公司 | 是重叠范围内的像素数 投资回报率 GS公司 投资回报率 Pred公司 , | 投资回报率 Pred公司 | 是像素数 投资回报率 Pred公司 、和 | 投资回报率 GS公司 | 是像素数 投资回报率 GS公司 值得注意的是,四个深度学习对象检测模型生成的ROI的大小被调整为与相应金标准ROI的尺寸相匹配,如第2.2节.针对所提出的基于边缘的选择方法以及四种深度学习对象检测模型,计算了精确度、召回率和F1-核的平均±标准偏差值。特别是,对于每种ROI定位方法,计算ROI定位法成功生成部分或完全与相应金标准ROI重叠的ROI的良性、恶性和所有BUS图像的精度、召回率和F1核心指标的平均±标准偏差值。

2.3.3. 使用UJH数据集比较所提出的基于边缘的选择方法与其他基线组合方法的性能

使用UJH数据集实现了所提出的基于边缘的选择方法,并将其结果与三种基线方法进行了比较,这三种方法可用于组合四个深度学习对象检测模型生成的ROI。这些基线方法是基于平均值的组合方法、基于并集的组合方法和基于交集的组合方法。基于平均值的组合方法计算四个深度学习对象检测模型生成的四个ROI的平均值。特别是,平均ROI的左上角对应于Faster R-CNN、SSD、EfficientDet-D0和CenterNet模型生成的ROI的右上角的中心点。此外,平均ROI的右下角对应于Faster R-CNN、SSD、EfficientDet-D0和CenterNet模型生成的ROI右下角的中心点。此外,基于联合的组合方法计算四个深度学习对象检测模型生成的四个ROI的联合。此外,基于交集的组合方法计算四个深度学习对象检测模型生成的四个ROI的交集。
使用UJH数据集,通过计算ROI检测率和精度、召回率和F1核心指标的平均±标准偏差值,评估基于平均值、并集和交集的组合方法的性能。对于这三种组合方法,如果一个或多个深度学习对象检测模型无法为给定的BUS图像生成ROI,则在计算组合ROI的过程中排除失败的模型。将基于平均值、并集和交集的组合方法获得的ROI检测率和平均±标准偏差值与所提出的基于边缘的选择方法获得的匹配值进行比较。

2.3.4. 使用BUSI数据集评估所提出的基于边缘的选择方法和四个深度学习对象模型的泛化性能

使用BUSI数据集评估了所提出的基于边缘的选择方法和四种深度学习对象检测模型的泛化性能。特别地,对应于包括在UJH数据集中的380个BUS图像的380个人工RGB图像被用于微调四个深度学习对象检测模型并训练DexiNed深度学习边缘检测模型。训练参数的设置与中描述的十倍交叉验证程序中使用的参数相匹配第2.3.2节使用微调的Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型,将ROI定位在630个人工RGB图像中,这些图像对应于BUSI数据集中包含的630个BUS图像。此外,使用训练好的DexiNed边缘检测模型计算BUSI数据集中包含的BUS图像的边缘图。计算出的边缘图用于应用所提出的基于边缘的选择方法,以改进BUSI数据集中包含的BUS图像中的ROI定位。通过计算ROI检测率和精度、召回率和F1核心指标的平均±标准偏差值,评估所提出的基于边缘的选择方法、Faster R-CNN模型、SSD模型、EfficientDet-D0模型和CenterNet模型的性能。特别是,对于每种ROI定位方法,计算良性、恶性和所有BUS图像的精度、召回率和F1核心指标的平均±标准偏差值,在这些图像中,ROI定位法成功生成了与相应金标准ROI部分或完全重叠的ROI。

3.结果

3.1. 所提出的基于边缘的选择方法和使用UJH数据集的四个深度学习对象模型获得的结果

表2显示了使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及提议的基于边缘的选择方法,为UJH数据集中包含的良性、恶性和所有BUS图像获得的ROI检测率。对于良性BUS图像、恶性BUS图像和所有BUS图像,使用EfficientDet-D0对象检测模型获得的ROI检测率高于使用其他三种深度学习对象检测模型实现的ROI检出率。此外,使用所提出的基于边缘的选择方法获得的ROI检测率高于使用四个深度学习对象检测模型获得的ROL检测率。表2还显示了使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及提议的基于边缘的选择方法为UJH数据集获得的平均±标准偏差精度、召回率和F1-核心值。对于良性BUS图像、恶性BUS图像和所有BUS图像,使用CenterNet模型获得的平均精度、召回率和F1-核心值高于使用其他三个深度学习对象检测模型获得的匹配平均精度、回收率和F1--核心值。此外,所提出的基于边缘的选择方法获得了良性BUS图像、恶性BUS图像和所有BUS图像的平均精度、召回率和F1-核心值,这些都高于使用四个深度学习对象检测模型获得的匹配平均精度、回想起率和F1核心值。这些结果表明,所提出的基于边缘的选择方法能够改进使用四种深度学习对象检测模型获得的ROI定位。
图5提供了通过Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及提议的基于边缘的选择方法为UJH数据集获得的定性ROI定位结果。中提供的定性结果图5证明了所提出的基于边缘的选择方法能够处理四个深度学习对象检测模型生成的ROI,以选择提高肿瘤所在区域定位的ROI。

3.2. 使用UJH数据集将建议的基于边缘的选择方法与其他基线组合方法进行比较的结果

表3显示了ROI检测率和精度、召回率和F1-核心指标的平均±标准偏差值,这些指标是基于UJH数据集,使用基于平均值、并集和交集的组合方法以及建议的基于边缘的选择方法获得的。基于平均值、并集和交集的组合方法获得的ROI检测率高于四种单独的深度学习对象检测方法的ROI检出率,如表2此外,基于联合的组合方法实现的ROI检测率与提出的基于边缘的选择方法相当,略高于基于平均值的组合方法和基于相交的组合方法。
基于交集的组合方法获得的平均精度值高于基于平均值的组合方法、基于联合的组合方法和所提出的基于边缘的选择方法。然而,基于交集的组合方法获得的平均召回值大大低于基于平均值的组合方法、基于联合的组合方法和所提出的基于边缘的选择方法。基于联合的组合方法获得的平均召回值高于基于平均值的组合方法、基于相交的组合方法和所提出的基于边缘的选择方法。然而,基于联合的组合方法获得的平均精度值大大低于基于平均值的组合方法、基于联合的合并方法和所提出的基于边缘的选择方法。基于平均值的组合方法获得的精度和召回值低于所提出的基于边缘的选择方法。
F1分数度量结合了精度和召回度量,可以作为一个统一的度量来评估使用三种组合方法以及所提出的基于边缘的选择方法获得的ROI的总体质量。表3结果表明,所提出的基于边缘的选择方法获得的F1核值高于三种基线组合方法。此外,表3表明基于平均值的组合方法获得的F1核心值优于其他两种基线组合方法。此外,三种基线组合方法获得的F1核心值低于CenterNet模型获得的F1核值,如所示表2。中提供的结果表3表明所提出的基于边缘的选择方法优于三种基线组合方法。

3.3. 基于边的选择方法和四个深度学习对象模型在BUSI数据集上的泛化结果

表4给出了使用四个深度学习对象检测模型以及所提议的基于边缘的选择方法,为BUSI数据集获得的ROI检测率和精度、召回率和F1-核心的平均±标准偏差值。EfficientDet-D0对象检测模型实现的ROI检测率高于使用其他三个深度学习对象检测模型获得的匹配ROI检测速率。此外,使用所提出的基于边缘的选择方法获得的ROI检测率高于使用四个深度学习对象检测模型获得的匹配ROI检测速率。使用CenterNet模型获得的平均精度、召回率和F1核心值高于使用其他三个深度学习对象检测模型获得的匹配平均精度、撤回率和F1核值。此外,所提出的基于边缘的选择方法获得的平均精度、召回率和F1分值高于使用四个深度学习对象检测模型获得的匹配平均精度、召回率和F1分值。这些结果表明,所提出的基于边缘的选择方法能够改进使用四种深度学习对象检测模型获得的ROI定位,可以推广到其他BUS图像数据集。
图6给出了使用四种深度学习对象检测模型以及所提出的基于边缘的选择方法对BUSI数据集获得的定性ROI定位结果。中提供的定性结果图6演示所提出的基于边缘的选择方法的能力,以处理四个深度学习对象检测模型生成的ROI定位,并选择一个ROI来改进包括肿瘤的区域的定位。

4.讨论

在本研究中,我们比较了四种深度学习对象检测模型的能力,即Faster R-CNN[24],固态硬盘[22],高效Det-D0[29]和CenterNet[27],以定位包含BUS图像中肿瘤的ROI。我们的研究还提出了一种新的基于边缘的选择方法,旨在分析四种深度学习对象检测模型产生的ROI定位,并选择能够提高肿瘤定位的ROI。分析和选择ROI的过程是使用使用DexiNed深度学习边缘检测模型为BUS图像计算的边缘图执行的。此外,将所提出的基于边缘的选择方法与三种基线组合方法,即基于平均值、基于并集和基于交集的组合方法进行了性能比较。
表2给出了基于UJH数据集并使用十倍交叉验证程序的四种深度学习对象检测模型和所提出的基于边缘的选择方法获得的ROI定位结果。结果表明,四种对象检测模型在ROI检测率和ROI定位质量方面具有不同的ROI定位能力。EfficientDet-D0模型实现了最高的ROI检测率,这等于 91 % 对于良性的BUS图像, 86 % 针对恶性BUS图像,以及 89 % 对于所有BUS图像,与其他三种深度学习对象检测模型进行比较。此外,CenterNet模型获得了最高质量的局部ROI,对于良性BUS图像,平均精度、召回率和F1-核心值分别为0.89、0.88和0.88;恶性BUS图像分别为0.87、0.86和0.85;对于所有BUS映像,分别为0.88、0.87和0.86。表2此外,本文提出的基于边缘的选择方法能够提高四种深度学习对象检测模型生成的ROI的检测率和质量。特别是,使用所提出的基于边缘的选择方法实现的ROI检测率等于 98 % 对于良性的BUS图像, 97 % 针对恶性BUS图像,以及 98 % 用于所有BUS映像。对于良性BUS图像,使用所提出的基于边缘的选择方法获得的平均精度、召回率和F1分值分别等于0.92、0.91和0.91;恶性BUS图像分别为0.89、0.89和0.89;对于所有BUS映像,分别为0.91、0.90和0.90。
表3给出了所提出的基于边缘的选择方法与使用UJH数据集获得的基于平均值、并集和交集的基线组合方法之间的比较结果。与提出的基于边缘的选择方法类似,这三种基线组合方法能够实现高于单个深度学习对象检测模型的ROI检测率。F1-核心度量结合了精度和召回度量,可以作为一个统一的度量来评估所提出的基于边缘的选择方法和三种基线组合方法获得的ROI的质量。中提供的结果表3结果表明,所提出的基于边缘的选择方法获得的F1核值高于三种基线组合方法,这表明了所提出方法的优越性能。此外,基于平均值、并集和交集的组合方法获得的F1核心值低于CenterNet深度学习对象检测模型获得的值,如表2这些结果表明,三种基线组合方法获得的ROI质量低于CenterNet模型生成的ROI。表3还表明,基于联合的组合方法获得的召回值略高于所提出的基于边缘的选择方法获得的值。这可以归因于这样一个事实,即通过基于并集的组合方法获得的ROI表示由四个单独的深度学习对象检测模型生成的所有ROI的并集。因此,联盟投资回报率预计与金标准投资回报率有很高的重叠,这导致了较高的召回价值。另一方面,联合ROI预计会有大量假阳性像素,这会导致较小的精度值,如所示表3此外,中提供的结果表3结果表明,基于相交的组合方法获得的精度值高于所提出的基于边缘的选择方法获得的值。这可以归因于这样一个事实,即通过基于交集的组合方法获得的ROI代表了四个单独的深度学习对象检测模型生成的所有ROI之间的交集。相交ROI预计主要由真阳性像素和有限数量的假阳性像素组成,这将导致高精度值。另一方面,通过基于交集的组合方法获得的ROI定位预计具有大量的假阴性像素,这导致小的召回值,如图所示表3.
表4显示了四种深度学习对象检测模型的泛化结果,以及通过使用UJH数据集进行训练和使用BUSI数据集进行测试获得的基于边缘的选择方法。在四种深度学习对象检测模型中,EfficientDet-D0模型的ROI检测率最高,等于 87 % 对于良性的BUS图像, 83 % 针对恶性BUS图像,以及 86 % 用于所有BUS映像。此外,CenterNet模型实现了最高的ROI定位质量,对于良性BUS图像,平均精度、召回率和F1核心值分别为0.88、0.87和0.85;恶性BUS图像分别为0.85、0.84和0.83;对于所有BUS映像,分别为0.87、0.86和0.85。表4还表明,所提出的基于边缘的选择方法提高了四种深度学习对象检测模型获得的ROI定位的检测率和质量。特别是,所提出的基于边缘的选择方法实现的ROI检测率等于 99 % 对于良性的BUS图像, 96 % 针对恶性BUS图像,以及 98 % 用于所有BUS映像。对于良性BUS图像,所提出的基于边缘的选择方法获得的平均精度、召回率和F1-核心值分别等于0.91、0.90和0.89;恶性BUS图像分别为0.87、0.88和0.86;对于所有BUS映像,分别为0.90、0.89和0.88。这些结果与表2,这是使用十倍交叉验证程序为UJH数据集获得的。
使用DexiNed深度学习边缘检测模型计算BUS图像的边缘图是使所提出的基于边缘的选择方法能够分析四种深度学习对象检测模型生成的ROI定位并选择能够改进肿瘤区域定位的ROI的关键因素。据我们所知,我们的研究是第一项使用深度学习技术检测BUS图像中肿瘤边缘的研究。然而,如果四个深度学习对象检测模型无法生成可用于识别包含肿瘤区域的ROI,则所提出的基于边缘的选择方法将选择其中一个ROI,而无法识别肿瘤区域。为了解决这一局限性,可以使用额外的深度学习对象检测模型来生成更多候选ROI,并且可以使用所提出的基于边缘的选择方法来处理这些ROI,以选择提高肿瘤区域定位的ROI。事实上,所提出的基于边缘的选择方法的一个优点是能够分析任何一组对象检测模型生成的ROI,而不限制用于生成ROI的对象检测模型的数量。
未来,我们计划通过使用我们提出的基于边缘的选择方法获得的改进ROI定位来扩展我们的研究,以对BUS图像中的肿瘤进行分类。特别是,通过我们提出的基于边缘的选择方法获得的改进ROI定位可以使用深度学习的BUS图像分类方法进行分析,例如[17],实现乳腺肿瘤的全自动分类。所提出的基于边缘的选择方法的简单公式旨在最大限度地提高ROI中包含与肿瘤相关的边缘的能力,并最小化假阳性像素的数量,从而使我们的方法得以扩展,以改进其他类型医学乳腺图像中的ROI定位,比如乳房X射线照相术、磁共振成像和计算机断层扫描图像。

5.结论

本研究提出了一种新的基于边缘的选择方法来分析不同深度学习对象检测模型生成的ROI,目的是提高包含肿瘤的ROI的定位。该方法基于使用最近引入的DexiNed深度学习边缘检测模型计算的BUS图像边缘图。据我们所知,我们的研究是第一项采用深度学习边缘检测模型来检测BUS图像中肿瘤边缘的研究。我们提出的基于边缘的选择方法已用于分析四种深度学习对象检测模型(即Faster R-CNN、SSD、EfficientDet-D0和CenterNet)生成的ROI定位,并用于选择提高肿瘤区域定位的ROI。根据ROI检测率以及精度、召回率和F1-核心,对所提出的基于边缘的选择方法以及四种深度学习对象检测模型的性能进行了评估。使用UJH和BUSI数据集获得的结果表明,我们提出的基于边缘的选择方法能够实现高于四种深度学习对象检测模型的ROI检测率。此外,结果表明,使用我们提出的基于边缘的选择方法获得的平均精度、召回率和F1核心值高于四个深度学习对象检测模型获得的匹配值。此外,使用UJH数据集,将所提出的基于边缘的选择方法与三种基线组合方法(即基于平均值、基于并集和基于交集的组合方法)的性能进行了比较。结果表明,我们提出的基于边缘的选择方法能够优于三种基线组合方法。未来,我们计划通过选择一组更大的深度学习对象检测模型生成的ROI来扩展我们提出的基于边缘的选择方法,以增强定位BUS图像中包含肿瘤的ROI的能力。此外,我们计划分析通过我们提出的方法获得的ROI,以使用深度学习技术对BUS图像中的肿瘤进行分类。

作者贡献

概念化、M.I.D.、A.A.-A.和M.S.A.-N。;数据管理、M.I.D.和M.S.A.-N。;形式分析,M.I.D.和A.A.-A。;资金收购、M.I.D.和M.S.A.-N。;调查、M.I.D.、A.A.-A.和M.S.A.-N。;方法学、M.I.D.和A.A.-A。;项目管理,M.I.D。;资源,M.I.D.、A.A.-A.和M.S.A.-N。;软件、M.I.D.和A.A.-A。;验证、M.I.D.、A.A.-A.和M.S.A.-N。;可视化、M.I.D.和A.A.-A。;书面原稿,M.I.D.、A.A.-A.和R.A。;写作审查和编辑、M.I.D.、R.A.、B.A.A.、M.Z.A.和S.A.所有作者均已阅读并同意手稿的出版版本。

基金

本研究由约旦安曼的德国约旦大学科学研究院长(种子赠款项目编号:SEEIT 03/2020)资助。

机构审查委员会声明

该研究是根据赫尔辛基宣言进行的,并得到约旦安曼约旦大学医院机构审查委员会的批准(参考号10/2018/286)。

知情同意书

所有参与收集UJH BUS图像数据集的患者均获得知情同意。

数据可用性声明

BUSI数据集可通过引用获得[38].

致谢

作者感谢约旦安曼约旦大学医院(UJH)提供UJH BUS图像数据集。

利益冲突

作者声明没有利益冲突。

工具书类

  1. 宋,H。;Ferlay,J。;西格尔,R.L。;Laversanne,M。;Soerjomataram,I。;杰马尔,A。;Bray,F.《2020年全球癌症统计:GLOBOCAN对185个国家36种癌症的全球发病率和死亡率进行了估计。加州癌症杂志临床。 2021,71, 209–249. [谷歌学者] [交叉参考] [公共医学]
  2. 卡普兰,L.乳腺癌的延迟:对诊断阶段和生存期的影响。前面。公共卫生 2014,2, 87. [谷歌学者] [交叉参考]
  3. Tran,T.X.M.公司。;Kim,S。;宋,H。;Park,B.75岁及75岁以上韩国女性的乳房X线密度、体重指数和乳腺癌风险。国际癌症杂志 2022,151, 869–877. [谷歌学者] [交叉参考] [公共医学]
  4. Wu,T。;Warren,L.对致密乳房女性进行补充乳房超声筛查的附加价值:加拿大单中心经验。可以。无线电协会。J。 2021,73, 101–106. [谷歌学者] [交叉参考]
  5. R.M.曼恩。;Cho,N。;Moy,L.乳腺MRI:最新进展。放射科 2019,292, 520–536. [谷歌学者] [交叉参考] [公共医学]
  6. 毛永杰。;H.J.Lim。;镍,M。;严,W.H。;Wong,D.W.C。;Cheung,J.C.W.利用超声弹性成像和机器学习对乳腺肿瘤进行分类:一项系统范围界定综述。癌症 2022,14, 367. [谷歌学者] [交叉参考] [公共医学]
  7. AlSawaftah,N。;El-Abed,S.公司。;Dhou,S。;早期乳腺癌检测的微波成像:现状、挑战和未来方向。J.成像 2022,8, 123. [谷歌学者] [交叉参考]
  8. W.A.Berg。;古铁雷斯,L。;NessAiver,医学硕士。;卡特,W.B。;Bhargavan先生。;刘易斯,R.S。;Offe,O.B.乳腺造影术、临床检查、US和MR成像在乳腺癌术前评估中的诊断准确性。放射科 2004,233, 830–849. [谷歌学者] [交叉参考]
  9. 谢尔,J.R。;Lee,J.M。;斯普拉格,B.L。;李,C.I。;Lehman,C.D.筛查超声作为乳房X光检查的辅助手段,用于乳房X光密度高的女性。Am.J.Obset.美国律师协会。妇科。 2015,212, 9–17. [谷歌学者] [交叉参考]
  10. 塔利亚菲科,A.S。;马里斯科蒂,G。;瓦尔多拉,F。;杜兰多,M。;Nori,J。;拉福吉亚,D。;Houssami,N.《乳腺X射线照相阴性致密乳房女性辅助筛查与断层合成或超声波的前瞻性对比试验》(ASTOUND-2)。《欧洲癌症杂志》 2018,104, 39–46. [谷歌学者] [交叉参考]
  11. Bahl,M.乳腺超声人工智能:它会影响放射科医生的准确性吗?J.乳房成像 2021,, 312–314. [谷歌学者] [交叉参考] [公共医学]
  12. 基于图像的乳腺癌检测、分割和分类方法综述。专家系统。申请。 2021,182, 115204. [谷歌学者] [交叉参考]
  13. 刘,S。;Wang,Y。;杨,X。;雷,B。;刘,L。;Li,S.X。;Wang,T.医学超声分析的深度学习:综述。工程类 2019,5, 261–275. [谷歌学者] [交叉参考]
  14. 明月,W.K。;黄,Y.S。;Lo、C.M。;黄,C.S。;Bae,M.S。;Kim,W.H。;Chang,R.F.基于超声纹理特征鉴别三阴性乳腺癌和纤维腺瘤的计算机辅助诊断。医学物理。 2015,42, 3024–3035. [谷歌学者] [交叉参考]
  15. 蔡,L。;王,X。;Wang,Y。;郭毅。;Yu,J。;Wang,Y.用于乳腺超声图像分类的鲁棒的基于相位的纹理描述符。生物识别。工程在线 2015,14, 26. [谷歌学者] [交叉参考]
  16. Nemat,H。;Fehri,H。;内贾德,N。;弗兰基,A.F。;Gooya,A.使用稀疏logistic回归和基于形态的纹理特征对乳腺病变进行超声分类。医学物理。 2018,45, 4112–4124. [谷歌学者] [交叉参考]
  17. Byra,M。;Galperin,M。;Ojeda-Fournier,H。;奥尔森,L。;奥博伊尔,M。;康斯托克,C。;Andre,M.使用深度卷积神经网络和颜色转换进行转移学习的超声检查乳腺肿块分类。医学物理。 2019,46, 746–755. [谷歌学者] [交叉参考]
  18. Cao,Z。;段,L。;Yang,G。;Yue,T。;Chen,Q.利用深度学习架构从超声图像中检测和分类乳腺病变的实验研究。BMC医学成像 2019,19, 51. [谷歌学者] [交叉参考] [公共医学]
  19. 西安,M。;Zhang,Y。;Cheng,H.D.基于空间域和频域中的乳腺特征的乳腺超声图像的全自动分割。模式识别。 2015,48, 485–497. [谷歌学者] [交叉参考]
  20. Shan,J。;Cheng,H.D。;Wang,Y.使用多域特征的乳腺超声图像的全自动分割方法。超声医学生物学。 2012,38, 262–275. [谷歌学者] [交叉参考]
  21. 刘,B。;Cheng,H.D。;黄,J。;田,J。;唐,X。;Liu,J.基于超声图像局部纹理分析的乳腺肿瘤全自动分割立体分类。模式识别。 2010,43, 280–298. [谷歌学者] [交叉参考]
  22. 刘伟。;安格洛夫,D。;Erhan,D。;塞格迪,C。;里德,S。;Fu,C.Y。;Berg,A.C.SSD:单发多盒探测器。《欧洲计算机视觉会议记录》,荷兰阿姆斯特丹,2016年10月8日至16日;第21-37页。[谷歌学者]
  23. Girshick,R.Fast R-CNN。2015年12月11日至18日在智利拉斯康德斯举行的IEEE计算机视觉国际会议记录;第1440–1448页。[谷歌学者]
  24. 任,S。;He,K。;Girshick,R。;Sun,J.Faster R-CNN:利用区域提议网络实现实时目标检测。IEEE传输。模式分析。机器。智力。 2017,39, 1137–1149. [谷歌学者] [交叉参考] [公共医学]
  25. 雷德蒙,J。;迪瓦拉,S。;Girshick,R。;Farhadi,A.你只看一次:统一的实时对象检测。2016年6月27日至30日,美国内华达州拉斯维加斯,IEEE计算机视觉和模式识别会议记录;第779–788页。[谷歌学者]
  26. 雷德蒙,J。;Farhadi,A.YOLOv3:渐进式改进。arXiv公司 2018,arXiv:1804.02767。[谷歌学者]
  27. Duan,K。;Bai,S。;谢林。;齐,H。;黄,Q。;Tian,Q.CenterNet:目标检测的关键点三元组。2019年10月27日至11月2日,韩国首尔,IEEE/CVF国际计算机视觉会议记录;第6568-6577页。[谷歌学者]
  28. 刘,G。;吴杰。;Yang,H。;李,Y。;太阳,X。;Tan,J。;Luo,B.基于主动学习和深度学习的乳腺超声肿瘤检测。2021.在线提供:www.easychair.org/publications/prepint_download/8WGV(2022年6月6日访问)。
  29. Tan,M。;Pang,R。;Le,Q.V.EfficientDet:可扩展且高效的对象检测。《IEEE/CVF计算机视觉和模式识别会议论文集》,美国华盛顿州西雅图,2020年6月13日至19日;第10781–10790页。[谷歌学者]
  30. Yap,M.H。;戈亚尔,M。;奥斯曼,F。;马蒂,R。;丹顿,E。;朱特,A。;Zwiggelaar,R.乳腺超声感兴趣区域检测和病变定位。Artif公司。因特尔。医学。 2020,107, 101880. [谷歌学者] [交叉参考]
  31. 索里亚,X。;Riba,E。;Sappa,A.Dense extreme inception network:走向用于边缘检测的稳健CNN模型。《IEEE计算机视觉应用冬季会议论文集》,美国科罗拉多州雪马村,2020年3月1日至5日;第1912-1921页。[谷歌学者]
  32. Glasbey,C.A.基于直方图的阈值算法分析。CVGIP:图形。模型。图像处理。 1993,55, 532–537. [谷歌学者] [交叉参考]
  33. He,K。;张,X。;任,S。;Sun,J.图像识别的深度残差学习。2016年6月27日至30日,美国内华达州拉斯维加斯,IEEE计算机视觉和模式识别会议记录;第770-778页。[谷歌学者]
  34. Russakovsky,O。;邓,J。;苏,H。;克劳斯,J。;Satheesh,S。;马,S。;Fei-Fei,L.ImageNet大规模视觉识别挑战。国际期刊计算。视觉。 2015,115, 211–252. [谷歌学者] [交叉参考]
  35. 林,T.Y。;Maire,M。;Belongie,S。;海斯,J。;佩罗纳,P。;拉马南,D。;Zitnick,C.L.Microsoft COCO:上下文中的通用对象。2014年9月6日至12日在瑞士苏黎世举行的欧洲计算机视觉会议记录;第740-755页。[谷歌学者]
  36. 苗,X。;刘,X。;陈,J。;庄,S。;范,J。;Jiang,H.使用单点多箱探测器进行输电线路检查的航空图像中的绝缘子检测。IEEE接入 2019,7, 9945–9956. [谷歌学者] [交叉参考]
  37. Tan,M。;Le,Q.EfficientNet:重新思考卷积神经网络的模型缩放。2019年6月10日至15日,美国加利福尼亚州长滩,国际机器学习会议记录;第6105-6114页。[谷歌学者]
  38. Al-Dhabyani,W。;戈马,M。;Khaled,H。;Fahmy,A.乳腺超声图像数据集。数据简介。 2020,28, 104863. [谷歌学者] [交叉参考] [公共医学]
  39. Bottou,L.具有随机梯度下降的大规模机器学习。2010年8月22日至27日,法国巴黎,国际计算统计会议记录;第177-186页。[谷歌学者]
图1。(,b条) ()一个恶毒的巴士形象和(b条)对应的金标准肿瘤轮廓(黄色轮廓)和包含肿瘤的金标准ROI(黄色框)。(c(c))使用DexiNed模型计算的边缘贴图。(d日如果)三个假设ROI(ROI 1、ROI 2和ROI 3)叠加在(d日)总线图像(电子)边缘贴图,以及(如果)二值化边缘图。
图1。(,b条) ()一个恶毒的巴士形象和(b条)对应的金标准肿瘤轮廓(黄色轮廓)和包含肿瘤的金标准ROI(黄色框)。(c(c))使用DexiNed模型计算的边缘贴图。(d日如果)三个假设ROI(ROI 1、ROI 2和ROI 3)叠加在(d日)总线图像(电子)边缘贴图,以及(如果)二值化边缘图。
传感器22 06721 g001
图2。该程序总结了使用所提出的基于边缘的选择方法来分析不同深度学习对象检测模型生成的ROI并选择能够有效检测包含肿瘤的区域的ROI的过程。
图2。该程序总结了使用所提出的基于边缘的选择方法来分析不同深度学习对象检测模型生成的ROI的过程,并选择能够有效检测肿瘤所在区域的ROI。
传感器22 06721 g002
图3。图示了应用所提出的基于边缘的选择方法分析不同深度学习对象检测模型生成的ROI的过程。
图3。图示了应用所提出的基于边缘的选择方法分析不同深度学习对象检测模型生成的ROI的过程。
传感器22 06721 g003
图4。(,b条),的()一个恶毒的巴士形象和(b条)对应的金标准肿瘤轮廓(黄色轮廓)和包含肿瘤的金标准ROI(黄色框)。(c(c)电子)(c(c))锐化图像(d日)对比度增强图像,以及(电子)为中显示的B模式图像计算的人工RGB图像(). (如果)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。()边缘地图上覆盖的Faster R-CNN(紫色方框)、SSD(红色方框)、EfficientDet-D0(青色方框)和CenterNet(绿色方框)模型生成的ROI定位。(小时)通过提议的基于边缘的选择方法选择的ROI(在本例中,是由CenterNet模型绿色框生成的ROI)以及覆盖在BUS图像上的金标准肿瘤轮廓(黄色框)。
图4。(,b条)()一个恶毒的巴士形象和(b条)对应的金标准肿瘤轮廓(黄色轮廓)和包含肿瘤的金标准ROI(黄色框)。(c(c)电子)(c(c))锐化图像(d日)对比度增强图像,以及(电子)为中显示的B模式图像计算的人工RGB图像(). (如果)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。()边缘地图上覆盖的Faster R-CNN(紫色方框)、SSD(红色方框)、EfficientDet-D0(青色方框)和CenterNet(绿色方框)模型生成的ROI定位。(小时)通过提议的基于边缘的选择方法选择的ROI(在本例中,是由CenterNet模型绿色框生成的ROI)以及覆盖在BUS图像上的金标准肿瘤轮廓(黄色框)。
传感器22 06721 g004
图5。UJH数据集的定性结果。(c(c))为获取的总线图像()良性肿瘤和(b条,c(c))恶性肿瘤。(d日如果)金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)覆盖在BUS图像上。()使用DexiNed模型计算的边缘贴图。(j个)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。在(k个),Faster R-CNN和CenterNet模型无法生成ROI。(o(o))通过所提出的基于边缘的选择方法选择的ROI以及覆盖在BUS图像上的金标准ROI(黄色框)。在(o(o))所提出的基于边缘的选择方法分别选择了CenterNet、EfficientDet-D0和CenterNet模型生成的ROI。
图5。UJH数据集的定性结果。(c(c))为获取的总线图像()良性肿瘤和(b条,c(c))恶性肿瘤。(d日如果)金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)覆盖在BUS图像上。()使用DexiNed模型计算的边缘贴图。(j个)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。在(k个),Faster R-CNN和CenterNet模型无法生成ROI。(o(o))通过提出的基于边缘的选择方法选择的ROI以及覆盖在BUS图像上的金标准ROI(黄色框)。在(o(o))所提出的基于边缘的选择方法分别选择了由CenterNet、EfficientDet-D0和CenterNet模型生成的ROI。
传感器22 06721 g005
图6。针对BUSI数据集获得的定性结果。(c(c))为获取的总线图像()良性肿瘤和(b条,c(c))恶性肿瘤。(d日如果)金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)覆盖在BUS图像上。()使用DexiNed模型计算的边缘贴图。(j个)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。在(),Faster R-CNN模型未能生成ROI。(o(o))通过提出的基于边缘的选择方法选择的ROI以及覆盖在BUS图像上的金标准ROI(黄色框)。在(o(o))提出的基于边缘的选择方法分别选择CenterNet、SSD和EfficientDet-D0模型生成的ROI。
图6。针对BUSI数据集获得的定性结果。(c(c))为获取的总线图像()良性肿瘤和(b条,c(c))恶性肿瘤。(d日如果)金标准肿瘤轮廓(黄色轮廓)和金标准ROI(黄色方框)覆盖在BUS图像上。()使用DexiNed模型计算的边缘贴图。(j个)覆盖在总线图像上的Faster R-CNN(紫色框)、SSD(红色框)、EfficientDet-D0(青色框)和CenterNet(绿色框)模型生成的ROI定位。在(),Faster R-CNN模型未能生成ROI。(o(o))通过提出的基于边缘的选择方法选择的ROI以及覆盖在BUS图像上的金标准ROI(黄色框)。在(o(o))提出的基于边缘的选择方法分别选择CenterNet、SSD和EfficientDet-D0模型生成的ROI。
传感器22 06721 g006
表1。比较用于定位BUS图像中包含肿瘤的ROI的四种深度学习对象检测模型。
表1。比较用于定位BUS图像中包含肿瘤的ROI的四种深度学习对象检测模型。
深度学习对象检测模型输入图像大小建筑主干CNN用于预培训的数据集
更快的R-CNN模型 640 × 640 两阶段目标检测ResNet-50美国有线电视新闻网MS-COCO公司
SSD型号 640 × 640 一级目标检测ResNet-50美国有线电视新闻网MS-COCO公司
高效Det-D0模型 512 × 512 一级目标检测EfficientNet-B0美国有线电视新闻网MS-COCO公司
CenterNet模型 512 × 512 一级目标检测ResNet-50美国有线电视新闻网MS-COCO公司
表2。使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及基于UJH数据集的拟议边缘选择方法获得的ROI检测率和精度、召回率和F1-score的平均±标准偏差值。
表2。使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及基于UJH数据集的拟议边缘选择方法获得的ROI检测率和精度、召回率和F1-score的平均±标准偏差值。
ROI定位技术总线图像类型ROI检测率精密度召回F1-芯
更快的R-CNN模型良性图像 84 % 0.86 ± 0.190.85 ± 0.100.83 ± 0.16
恶性图像 77 % 0.85 ± 0.180.84 ± 0.110.82 ± 0.14
所有图像 81 % 0.85 ± 0.190.85 ± 0.110.83 ± 0.15
SSD型号良性图像 89 % 0.86 ± 0.170.84 ± 0.130.84 ± 0.14
恶性图像 84 % 0.82 ± 0.210.83 ± 0.120.80 ± 0.16
所有图像 87 % 0.84 ± 0.190.84 ± 0.120.82 ± 0.15
高效Det-D0模型良性图像 91 % 0.88 ± 0.130.86 ± 0.110.86 ± 0.10
恶性图像 86 % 0.86 ± 0.150.84 ± 0.150.83 ± 0.13
所有图像 89 % 0.87 ± 0.140.85 ± 0.120.85 ± 0.11
CenterNet模型良性图像 86 % 0.89 ± 0.140.88 ± 0.100.88 ± 0.10
恶性图像 78 % 0.87 ± 0.150.86 ± 0.160.85 ± 0.13
所有图像 83 % 0.88 ± 0.150.87 ± 0.130.86 ± 0.12
提出的基于边缘的选择方法良性图像 98 % 0.92 ± 0.130.91 ± 0.130.91 ± 0.13
恶性图像 97 % 0.89 ± 0.130.89 ± 0.120.89 ± 0.11
所有图像 98 % 0.91 ± 0.130.90 ± 0.130.90 ± 0.12
表3。ROI检测率与基于平均值、并集和交集的组合方法以及基于UJH数据集的拟议边缘选择方法获得的平均±标准偏差精度、召回率和F1-核心值之间的比较。
表3。ROI检测率与基于平均值、并集和交集的组合方法以及基于UJH数据集的拟议边缘选择方法获得的平均±标准偏差精度、召回率和F1-核心值之间的比较。
ROI定位技术总线图像类型ROI检测率精密度召回F1-芯
基于平均值的组合方法良性图像 97 % 0.87 ± 0.180.87 ± 0.140.86 ± 0.16
恶性图像 96 % 0.85 ± 0.140.85 ± 0.120.85 ± 0.11
所有图像 97 % 0.87 ± 0.160.86 ± 0.130.85 ± 0.14
基于联合的组合方法良性图像 98 % 0.81 ± 0.160.92 ± 0.120.85 ± 0.15
恶性图像 97 % 0.77 ± 0.200.90 ± 0.150.81 ± 0.18
所有图像 98 % 0.79 ± 0.180.91 ± 0.140.83 ± 0.16
基于交集的组合方法良性图像 96 % 0.98 ± 0.050.70 ± 0.150.80 ± 0.13
恶性图像 94 % 0.96 ± 0.110.69 ± 0.190.79 ± 0.16
所有图像 96 % 0.97 ± 0.080.70 ± 0.170.80 ± 0.14
提出的基于边缘的选择方法良性图像 98 % 0.92 ± 0.130.91 ± 0.130.91 ± 0.13
恶性图像 97 % 0.89 ± 0.130.89 ± 0.120.89 ± 0.11
所有图像 98 % 0.91 ± 0.130.90 ± 0.130.90 ± 0.12
表4。使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及基于BUSI数据集的拟议边缘选择方法获得的ROI检测率和精度、召回率和F1-score的平均±标准偏差值。
表4。使用Faster R-CNN、SSD、EfficientDet-D0和CenterNet对象检测模型以及基于BUSI数据集的拟议边缘选择方法获得的ROI检测率和精度、召回率和F1-score的平均±标准偏差值。
ROI定位技术总线图像类型ROI检测率精密度召回F1-芯
更快的R-CNN模型良性图像 76 % 0.84 ± 0.230.84 ± 0.170.81 ± 0.21
恶性图像 71 % 0.83 ± 0.240.83 ± 0.200.79 ± 0.22
所有图像 74 % 0.84 ± 0.230.84 ± 0.180.81 ± 0.21
SSD型号良性图像 85 % 0.83 ± 0.190.82 ± 0.170.80 ± 0.18
恶性图像 81 % 0.81 ± 0.260.81 ± 0.190.78 ± 0.21
所有图像 84 % 0.82 ± 0.210.82 ± 0.170.79 ± 0.19
EffifientDet模型良性图像 87 % 0.86 ± 0.120.85 ± 0.140.84 ± 0.13
恶性图像 83 % 0.84 ± 0.170.83 ± 0.120.82 ± 0.13
所有图像 86 % 0.85 ± 0.130.84 ± 0.130.84 ± 0.13
CenterNet模型良性图像 83 % 0.88 ± 0.180.87 ± 0.170.85 ± 0.18
恶性图像 77 % 0.85 ± 0.190.84 ± 0.160.83 ± 0.16
所有图像 81 % 0.87 ± 0.180.86 ± 0.170.85 ± 0.17
提出的基于边缘的选择方法良性图像 99 % 0.91 ± 0.150.90 ± 0.140.89 ± 0.15
恶性图像 96 % 0.87 ± 0.180.88 ± 0.150.86 ± 0.16
所有图像 98 % 0.90 ± 0.160.89 ± 0.150.88 ± 0.16
出版商备注:MDPI在公布的地图和机构隶属关系中对管辖权主张保持中立。

分享和引用

MDPI和ACS样式

达乌德,M.I。;Al-Ali,A。;阿拉兹莱,R。;Al Najar,医学硕士。;Alsaify,文学学士。;M.Z.阿里。;Alouneh,S。一种基于边缘的选择方法,用于改进乳腺超声图像中使用多个深度学习对象检测模型获得的感兴趣区域定位。传感器 2022,22, 6721.https://doi.org/10.3390/s22186721

AMA风格

Daoud MI、Al-Ali A、Alazrai R、Al-Najar MS、Alsaify BA、Ali MZ、Alouneh S。一种基于边缘的选择方法,用于改进乳腺超声图像中使用多个深度学习对象检测模型获得的感兴趣区域定位。传感器. 2022; 22(18):6721.https://doi.org/10.3390/s22186721

芝加哥/图拉宾风格

达乌德(Daoud)、穆罕默德一世(Mohammad I.)、阿梅尔·阿利(Aamer Al-Ali)、拉米·阿拉兹莱(Rami Alazrai)、马哈森·阿勒纳贾尔(Mahasen S.Al-Najar)、巴哈·A·阿尔赛菲(Baha A.Alsaify)、穆斯塔法·阿里(Mosta。2022.“一种基于边缘的选择方法,用于改进乳腺超声图像中使用多个深度学习对象检测模型获得的感兴趣区域定位”传感器22,编号18:6721。https://doi.org/10.3390/s22186721

请注意,从2016年第一期开始,该杂志使用文章编号而不是页码。请参阅更多详细信息在这里.

文章指标

返回页首顶部