期刊上的下一篇文章
更正:Chen,Y.等人。InSAR测量的Piton de la Fournaise火山熔岩场的长期沉降:解释东侧运动的新见解。远程传感器。2018,10, 597
期刊上的上一篇文章
利用基于模糊逻辑的集成平滑数据同化框架提高MODIS部分积雪面积的信息价值
 
 
订购文章重印
字体类型:
宋体 佐治亚州 宋体,Verdana
字体大小:
澳大利亚 澳大利亚 澳大利亚
行距:
列宽:
背景:
第条

用于高光谱图像鉴别分析的拉普拉斯正则空间感知协同图

1
中国地质大学计算机科学学院,武汉430074
2
哈尔滨工业大学计算机科学与技术学院,哈尔滨150001,中国
2006年澳大利亚新南威尔士州悉尼悉尼大学悉尼大学悉尼商学院商业分析学科
*
应向其寄送信件的作者。
远程传感器。 2019,11(1), 29;https://doi.org/10.3390/rs11010029
收到的提交文件:2018年11月25日/修订日期:2018年12月13日/接受日期:2018年12月20日/发布日期:2018年12月25日
(本条属于本节遥感图像处理)

摘要

:
在存在大量噪声和冗余光谱特征的情况下,降维(DR)模型对于提取高光谱图像数据分析的低维特征具有重要意义。在众多DR技术中,图嵌入判别分析框架已经证明了其对HSI特征约简的有效性。基于该框架,许多基于表示的模型被开发用来学习相似图,但这些方法大多忽略了空间信息,导致DR模型的性能不理想。在本文中,我们首先提出了一种新的有监督DR算法,称为空间感知协作图鉴别分析(SaCGDA),该算法在最近开发的空间感知协作表示(SaCR)的启发下,将一种简单而有效的空间约束引入到基于协作图的鉴别分析(CGDA)中为了使样本在数据流形上的表示更加平滑,即相似的像素共享相似的表示,我们进一步添加了谱拉普拉斯正则化,并提出了拉普拉斯正规化SaCGDA(LapSaCGDA),其中,两个光谱和空间约束可以有效利用HSI中嵌入的固有几何结构。在三个HSI数据集上的实验验证了所提出的SaCGDA和LapSaCGDA优于其他最先进的方法。

1.简介

作为最重要的遥感技术之一,现代遥感器获取的高光谱图像(HSI)已成功应用于目标检测、作物产量估算等实际任务[1,2,]. 通常,HSI中的每个像素都由数百个光谱带/特征组成,这意味着HSI可以提供比具有较少波段/特征的多光谱和典型彩色图像更丰富的遥感对象信息,因此HSI分类在过去几十年中备受关注。尽管已经引入了许多分类模型,如支持向量机(SVM)、深度学习(DL)和基于表示的分类[4,5,6,7]等,源于高维特征/频带的维数灾难问题可能会在很大程度上影响各种分类算法的性能,特别是当只有少量标记训练数据时。因此,人们引入了多种降维方法对HSI数据进行预处理,以去除噪声和冗余特征,并在低维子空间中提取鉴别特征。在某种程度上,灾难恢复已成为HSI数据分析的基础[8,9,10,11,12].
一般来说,HSI的所有DR模型可以分为两类:波段选择和特征提取[8,12]. 前者侧重于通过一些标准从具有物理意义的原始谱带中选择具有代表性的子集,而后者则试图通过将观测到的高维谱带/特征转换为具有判别和结构信息的低维特征来学习新的特征。如中所述[8],通过特征选择方法从大量可能的波段组合中发现最佳波段通常是次优的,因此本文只关注基于特征提取的HSI DR方法,而不是特征选择。
在过去的几十年中,各种特征提取算法被引入HSI数据分析。用于特征提取的DR技术大致有两大类,即线性DR模型和非线性DR模型。主成分分析(PCA)可能是最经典的线性DR方法,它试图将观测数据线性投影到数据方差最大的低维子空间。为了将主成分分析进一步扩展到贝叶斯框架,概率主成分分析(PPCA)[13]也提出了。其他PCA扩展包括内核PCA(KPCA)、鲁棒PCA、稀疏PCA和张量PCA等[14,15,16,17,18]. 然而,主元分析中的线性假设表明,当高维观测数据中嵌入非线性结构时,主元计算及其扩展可能会失败。因此,人们开发了许多非线性DR模型,其中基于流形学习的DR模型具有代表性,因为它们能够捕获高维观测数据中固有的非线性结构(如多簇、子空间结构和流形)[12,19,20].
大多数基于流形学习的DR技术都试图基于图论对数据的局部几何结构进行建模[19,21]. 这些基于流形学习的方法的性能主要取决于以下两个方面:(i)相似图的设计,(ii)新测试数据的嵌入——样本外问题。对于第一个因素,不同的方法有不同的思路来构造相似图矩阵,如局部线性嵌入(LLE)、拉普拉斯特征映射(LE)、邻域保持嵌入(NPE)和局部保持投影(LPP)[19,22]等输入[19]引入了一个通用的图嵌入(GE)框架来统一这些现有的流形学习算法,比较了构造不同相似图矩阵的各种方法。Lunga等人[20]还回顾了用于HSI分类的典型流形学习DR方法。最近,基于表示的方法也被引入到流形学习框架中,以构成相似图[12]. 例如,稀疏表示(SR)、协作表示(CR)和低阶表示(LRR)[7]用于构造稀疏图( Ş 1 图形),协作图形( Ş 1 图)和低秩图,导致稀疏保持投影(SPP)[23],基于协作表示的预测(CRP)[24]和低阶保留投影(LRPP)[25]分别是。对于第二个方面,为了解决许多流形学习模型遇到的样本外问题,将新样本投影到低维流形子空间的额外映射添加到现有流形学习算法中,其中线性映射通常被使用,如LPP和NPE[19].
上述技术是无监督的DR模型,这意味着即使在我们通常被赋予一些标签的HSI数据中有额外的标签,也不能使用。通过利用这些标签信息,可以将无监督DR方法扩展到有监督设置,从而提高DR模型的识别能力。线性判别分析(LDA)在该行中具有代表性。与线性对应的PCA相比,LDA通过同时最大化类间散射和最小化类内散射来执行DR,从而获得比PCA更具区分性的降维特征。然而,LDA及其扩展(包括广义判别分析(GDA))存在提取最大值的局限性 C类 1 具有的功能C类是标签类的数量[8]以及小样本(SSS)问题。非参数加权特征提取(NWFE)及其内核扩展内核NWFE通过使用加权平均值评估非参数散布矩阵来解决这些问题,导致超过 C类 1 正在学习的功能[8]. 其他LDA扩展包括正规LDA(RLDA)[26]和改良FLDA(MFLDA)[27].
PCA还扩展到监管版本,以处理额外标签,如监管PPCA(SPPCA)[16]. 然而,这些方法很可能无法在众多HSI光谱特征中发现复杂的非线性几何结构,这可能会恶化DR模型的性能。因此,人们开发了许多能够捕获相邻像素局部几何结构的监督流形学习模型,如监督LPP(supervised LPP,SLPP)[19],局部Fisher判别分析(LFDA)[28]和局部图判别嵌入(LGDE)[29]. 实现监督流形学习模型最简单的方法是基于属于同一类的相邻样本构造相似图矩阵。或者,基于表示的模型已经扩展到监督设置中,例如基于稀疏图的判别分析(SGDA)[30],加权稀疏图鉴别分析(WSGDA)[31],基于协作图的鉴别分析(CGDA)[32],拉普拉斯正则化CGDA(LapCGDA)[7],用图形学习进行判别分析(DAGL)[33]以及基于稀疏和低秩图的判别分析(SLGDA)[34]等。
为了进一步向监督流形模型添加非线性,还使用了核技巧,从而生成了核LFDA(KLFDA)[28]、内核CGDA(KCGDA)[32]和内核LapCGDA(KLapCGDA)[7]等。最近的一项调查[12]将这种技术称为图嵌入判别分析,其中这些模型的基本思想是构造具有不同准则的各种判别内在图,例如 Ş 1 Ş 2 SGDA和CGDA中分别使用的图形。尽管他们的模型在分类精度方面证明了提取区分性HSI特征的有效性,但由于缺乏考虑空间信息,他们的性能可能会变得不令人满意。
最近,一些研究人员表明,HSI中的空间信息可以有效地用于增强DR模型,从而形成联合频谱空间DR技术,其中大多数这类模型可以大致分为两类,如[35]:
(i)
光谱-空间信息可用作预处理。例如,在复合核判别分析(CKDA)中,使用高斯加权局部平均算子提取光谱空间特征[36]. 稳健空间LLE(RSLLE)采用稳健的谱空间距离而不是简单的谱距离[37]. 基于局部图的融合(LGF)[38]提出了同时考虑光谱信息和形态轮廓提取的空间信息进行DR的方法。最近,张量PCA(TPCA)[18],基于深度学习的模型[5],超级像素[29,39]和传播滤波器[40]这些技术也成功地用于提取光谱空间特征。
(ii)
光谱空间信息可用作空间约束/正则化。例如[41]提出了一种空间和光谱正则化局部鉴别嵌入算法(SSRLDE),其中局部相似性信息由光谱域正则化局部保持散射矩阵和空间域局部像素邻域保持散射矩阵编码[42]利用小邻域构造的局部散布矩阵作为正则化子,使样本在小邻域的低维特征空间中逼近局部均值。谱空间共享线性回归(SSSLR)[35]利用凸集来描述空间结构,利用共享结构学习模型来学习更具判别性的线性投影矩阵进行分类。空间谱超图用于空间谱超图判别分析(SSHGDA)[43]构造复杂的类内和类间散布矩阵来描述HSI数据的局部几何相似性。构造超像素级图和局部重建图作为空间正则化LGDE(SLGDE)的空间正则化[29]和局部几何结构费希尔分析(LGSFA)[44]分别是。最近,He等人[45]综述了许多最新的光谱空间特征提取和分类方法,表明空间信息有助于HSI特征提取和识别。
在本文中,我们重点研究了图嵌入判别分析框架,因为它具有出色的性能和较低的复杂性。尽管在该框架的基础上取得了一些进展,如SGDA、CGDA、LapCGDA和SLGDA等,但通过将空间信息有效地纳入该框架,可以进一步提高这些模型的性能[46]和空间感知CR(SaCR)[10]算法,在本文中,我们提出了空间感知的基于图形的协同鉴别分析(SaCGDA)其中,空间光谱特征首先在JCR中通过平均滤波进行预处理,然后将空间信息编码为CR中的空间正则项,以方便高效地构建光谱空间相似图。为了进一步提高模型的性能,在LapCGDA的启发下,将谱Laplacian正则化项引入到SaCGDA中,得到了更有效地利用谱空间信息的Laplaciar正则化SaCGDA(LapSaCGDA)。
论文的其余部分组织如下。第2节,我们简要回顾了相关的工作,包括协作表示(CR)和图嵌入判别分析框架。建议的SaCGDA和LapSaCGDA将在第3节然后,使用三个HSI数据集评估新提出的算法在第4节最后,将在第5节.

2.相关工程

在本节中,我们将回顾一些相关的工作,包括典型的CR模型及其变体JCR和SaCR,以及图嵌入判别分析框架。
为了保持一致性,我们在本文中使用了以下符号: X(X) = [ x 1 , , x N个 ] 每个样本的观察(输入)数据 x n个 在高维空间 R(右) D类 ; = [ 1 , , N个 ] 每个点的观测数据(输出或标签) n个 在中是离散类标签 { 1 , 2 , , C类 } ,其中C类是类的数量; Z = [ z(z) 1 , , z(z) N个 ] 是低维空间中的降维变量/特征吗 R(右) d日 ( d日 D类 )每个 z(z) n个 对应于 x n个 和/或 n个 。为了方便起见,我们进一步表示X(X)作为 D类 × N个 矩阵, 一个 N个 × 1 向量和Z一个 d日 × N个 矩阵,因此训练数据可以定义为 D类 = { ( x n个 , n个 ) } n个 = 1 N个 .让 n个 是来自的培训数据的数量-th级和 = 1 C类 n个 = N个 与LDA类似,基于判别分析的DR模型的目标是找到低维投影Z具有典型的线性映射
Z = P(P) T型 X(X) ,
其中转换矩阵 P(P) R(右) D类 × d日 线性投影每个样本 x n个 到低维子空间。

2.1. 合作代表(CR)

稀疏表示(SR)、协作表示(CR)和低秩表示(LRR)等基于表示的模型已成功应用于许多任务中[7]. 与计算昂贵的SR相比,CR可以提供比较好的分类性能和非常有效的闭合解来学习模型参数。给定一个测试样本 x * ,使用所有训练数据表示
L(左) ( w个 ) = | | x * X(X) w个 | | 2 2 + α Ω ( w个 ) ,
其中正则化参数 α 平衡了重建残差和表示系数正则化之间的权衡。通常, Ş 2 norm与一起使用 Ω ( w个 ) = | | w个 | | 2 2 然而,也可以采用其他正则化方法[47,48]. 例如, Ş 1 而不是 Ş 2 范数带来了系数的稀疏性,导致了SR.A局部正则化[49] Ω ( w个 ) = | | Γ w个 | | 2 2 根据欧几里得距离为训练数据提供不同的自由度 x * ,其中对角线矩阵中的每个对角线条目 Γ 由定义
Γ = | | x * x | | 2 , ( = 1 , 2 , , N个 ) .
对于经典CR模型,在求解最小二乘问题时,最优表示系数 w个 * 可以用封闭解很容易地得到
w个 * = ( X(X) T型 X(X) + α ) 1 X(X) T型 x *
然后是测试样本的类别标签 x * 可以根据最小残差进行预测
b条 e(电子) ( x * ) = argmin(最小值) = 1 , 2 , , C类 x * X(X) w个 * 2 2 ,
哪里 X(X) * 是的子集X(X) w个 * 对应于特定的类标签分别是。
正如我们所提到的,空间信息对于HSI数据分析非常重要。最近开发了两种简单但有效的CR模型。联合CR(JCR)是基于相邻像素通常以较高的概率共享相似的光谱特征,利用空间信息作为预处理。因此,可以通过联合模型间接合并相邻像素之间的空间相关性,其中每个训练和测试样本由其相邻像素的空间平均值表示,这与卷积神经网络(CNN)中的卷积操作类似。另一个称为联合空间感知CR(JSaCR)的模型以一种非常简单有效的方式进一步利用空间信息作为空间约束
L(左) ( w个 ) = x ˜ * X(X) ˜ w个 2 2 + α Γ ˜ 2 2 + β 诊断 ( ) w个 2 2 ,
哪里 x ˜ * 和中的每个元素 X(X) ˜ 是测试样品的平均光谱特征 x * 和每个培训点 x n个 * 在一个小窗口中居中分别是邻居, Γ ˜ 类似地定义为 Γ ˜ = | | x ˜ * x ˜ | | 2 ( = 1 , 2 , , N个 ) ,中的每个元素 = [ 1 , 2 , , N个 ] 与每个训练样本关联,这鼓励了表示系数 w个 是空间上一致的w.r.t.训练数据, 诊断 ( ) 是带有向量元素的正方形对角矩阵 在主对角线上。进一步解释方程式第三项中的空间约束(6),首先表示测试样本的像素坐标 x * 和每个训练像素 x n个 通过 ( 第页 * , * ) ( 第页 n个 , n个 ) 分别是。它们之间的空间关系可以用光滑参数简单地测量t吨
n个 = [ 距离 ( ( 第页 n个 , n个 ) , ( 第页 * , * ) ) ] t吨 ,
哪里 距离 ( · , · ) 用平滑参数表示欧氏距离t吨调整空间约束的距离衰减速度。实际上,归一化元素 ( 0 , 1 ] 通过除法获得 最大值 ( ) 。值很大t吨隐含地意味着空间上远离测试样本的像素将通过分配接近0的系数而受到惩罚。从JSaCR公式可以看出,局部约束(第二项)和空间约束(第三项)由正则化参数控制 α β 分别是。

2.2. 图嵌入判别分析

图嵌入判别分析[12]试图学习投影矩阵P(P)基于线性模型假设 z(z) n个 = P(P) T型 x n个 通过保持原始观测空间中样本的相似性。许多流形学习模型和基于判别分析的方法可以统一到该框架中,如LPP、NPE、LDA和最近提出的SGDA、CGDA等。
通常,一般的图嵌入判别分析模型可以通过找到一个低维子空间来表示,在该子空间中可以保留高维观测值中的局部邻域关系。基于典型线性映射 z(z) n个 = P(P) T型 x n个 ,图嵌入判别分析的目标函数为
P(P) ˜ = argmin(最小值) P(P) j个 z(z) z(z) j个 j个 = argmin(最小值) P(P) j个 P(P) T型 x P(P) T型 x j个 j个 = argmin(最小值) P(P) 追踪 ( P(P) T型 X(X) L(左) X(X) T型 P(P) ) , . t吨 . P(P) T型 X(X) L(左) P(P) X(X) T型 P(P) = ,
其中相似度图矩阵建立在观测样本之间的成对距离上,以表示每个样本的局部几何结构 j个 样本之间的相似性/亲和力 x x j个 , L(左) = T型 是图的拉普拉斯矩阵G公司,T型是对角线矩阵n个第个对角线元素为 T型 = j个 = 1 N个 j个 L(左) 第页 是样本尺度归一化约束或某些拉普拉斯罚矩阵 G公司 第页 .通过简单地将目标函数重新形成为
P(P) ˜ = 精氨酸 P(P) | P(P) T型 X(X) L(左) X(X) T型 P(P) | | P(P) T型 X(X) L(左) 第页 X(X) T型 P(P) | .
最优投影矩阵P(P)可以通过求解广义特征值分解问题得到
X(X) L(左) X(X) T型 P(P) = λ X(X) L(左) 第页 X(X) T型 P(P) ,
哪里 P(P) R(右) D类 × d日 d日对应于d日最小非零特征值。从公式中可以看出,图嵌入判别分析算法的性能在很大程度上取决于相似性/亲和性矩阵的构造方法。
让我们首先以无监督LPP模型为经典示例,其中两个样本之间的相似性 x x j个 如果它们是相邻的,通常由热核来测量
j个 = e(电子) x x j个 2 第页 ,
使用预先指定的参数第页.
与非监督LPP相比,监督判别分析模型LDA、SGDA和CGDA以监督的方式构造相似矩阵,可以提供更好的判别能力。例如,在LDA中,SGDA或CGDA通常由块对角矩阵表示
1 2 C类 ,
其中每个 { } = 1 C类 是类内相似性矩阵的大小 n个 × n个 基于 n个 培训样本仅来自-第个类。不同的策略被应用于构建类内相似矩阵(13) Ş 1 , Ş 2 , n个 u个 c(c) e(电子) 第页 + Ş 1 n个 (f) o个 d日 + Ş 2 SGDA、CGDA、SLGDA和LapCGDA分别采用范数,使用基于表示的算法构造相似矩阵 = [ w个 1 ; w个 2 ; ; n个 ] R(右) n个 × n个 每个 n个 培训数据的数量仅来自-第七类:
新加坡国家开发署 : argmin(最小值) w个 n个 x n个 X(X) n个 w个 n个 2 2 + α w个 n个 1 ,
CGDA公司 : argmin(最小值) w个 n个 x n个 X(X) n个 n个 2 2 + α w个 n个 2 ,
SLGDA公司 : argmin(最小值) w个 n个 x n个 X(X) n个 w个 n个 2 2 + α w个 n个 * + β n个 1 ,
LapCGDA公司 : argmin(最小值) w个 n个 x n个 X(X) n个 w个 n个 2 2 + α w个 n个 2 + β w个 n个 T型 H(H) n个 w个 n个 ,
哪里 x n个 是来自的培训样本-第级, X(X) n个 表示来自的所有培训样本-th级,但不包括 x n个 , · * SLGDA中表示核规范,以及 H(H) n个 在LapCGDA中是由方程构造的拉普拉斯矩阵(11).
尽管这些模型已经证明了其有效性,但由于HSI中的空间信息没有得到利用,因此其性能可能不令人满意。与局部重建点、超像素和超图等空间约束相比,LGSFA中的空间正则化模型[44]、SLGDE[29]和SSHGDA[43]JSaCR中的简单空间先验已经被证明是快速有效的。因此,本文将空间先验引入到CGDA模型中,因为它具有优异的性能和较低的复杂性。

3.拉普拉斯正则化空间感知CGDA

在本节中,受JSaCR和LapCGDA的推动,我们提出了Laplacian正则化空间感知CGDA(LapSaCGDA)通过在CGDA中同时引入空间先验和谱流形正则化,将显著提高学习到的相似/亲和矩阵的鉴别能力,从而提高DR模型的性能。
首先,基于JCR中的平均滤波可以平滑HSI数据中的随机噪声这一事实,我们同样对所有HSI数据进行了预处理,从而产生了新的符号,如 x ˜ n个 X(X) ˜ ,分别表示一个训练样本和预处理后的所有训练数据。
然后,基于方程式中的JSaCR模型(6),在CGDA中使用JSaCR而不是典型的CR来构造类内相似矩阵是很简单的 { } = 1 C类 对于 n个 标签样品属于-第个等级
argmin(最小值) w个 n个 x ˜ n个 X(X) n个 ˜ n个 2 2 + α Γ ˜ w个 n个 2 2 + β 诊断 ( n个 ) w个 n个 2 2 ,
哪里 x ˜ n个 是来自的预处理训练样本-第级, X(X) n个 所有预处理的训练样本都来自-th级,但不包括 x ˜ n个 , Γ ˜ 类似地定义为 Γ ˜ = x ˜ n个 x ˜ 2 n个 = [ 距离 ( ( 第页 n个 , n个 ) , ( 第页 , ) ) ] t吨 使用像素坐标 ( 第页 , ) 对于中的样本-第th类 ( = 1 , 2 , , n个 ) 分别是。
方程中优化问题的封闭解很容易获得(17)由
w个 n个 = ( X(X) n个 ˜ T型 X(X) n个 ˜ + α Γ ˜ + β 诊断 ( n个 ) ) 1 X(X) n个 ˜ T型 x ˜ n个 .
如JSaCR所述,方程中的位置先验(第二项)和空间先验(第一项)(17)可以有效地提取HSI数据中的光谱空间结构。然而,方程中第二项之前的简单局部性(17)与LapCGDA中使用的拉普拉斯正则化等流形先验相比,利用内在几何信息可能效率低下。因此,我们通过将拉普拉斯正则化引入到SaCGDA中,进一步提出了拉普拉斯正规化空间感知CGDA(LapSaCGDA)。为了比较这两个谱先验,我们只需将谱拉普拉斯约束添加到SaCGDA中作为第三个正则化,而不是将SaCGDA的谱局部约束替换为谱拉普拉斯约束。
与SaCGDA类似,类内相似矩阵 { } = 1 C类 可以通过解决以下优化问题来构建LapSaCGDA:
argmin(最小值) w个 n个 x ˜ n个 X(X) n个 ˜ w个 n个 2 2 + α Γ ˜ w个 n个 2 2 光谱 地区 约束 + β 诊断 ( n个 ) w个 n个 2 2 空间的 约束 + γ w个 n个 T型 H(H) n个 w个 n个 光谱 拉普拉斯语 约束 ,
哪里 H(H) n个 = e(电子) | | x ˜ n个 x ˜ | | 2 第页 带有预先指定的参数第页.
数学上,此优化的闭合解可以通过以下方式获得
w个 n个 = ( X(X) n个 ˜ T型 X(X) n个 ˜ + α Γ ˜ + β 诊断 ( ) + γ H(H) n个 ) 1 X(X) n个 ˜ T型 x ˜ n个 .
值得注意的是,当 γ = 0 ,在以下情况下发送至LapCGDA β = 0 或CGDA β = 0 γ = 0 因此,所提出的LapSaCGDA模型非常通用,可以统一具有不同正则化参数配置的三个模型。
在获得所有类内相似性矩阵之后 { } = 1 C类 通过SaCGDA或LapSaCGDA,块-对角相似矩阵 = d日 ( 1 , 2 , , C类 ) 可以像等式一样简单地构造(12). 最后,基于图嵌入判别分析框架,很容易评估最优投影矩阵P(P)通过求解方程中的特征值分解(10).
算法1概述了完整的LapSaCGDA算法。
算法1用于HSI降维和分类的LapSaCGDA
输入: 
高维训练样本 X(X) R(右) D类 × N个 ,训练场真相 R(右) N个 ,预先固定的潜在维度d日、和测试像素 X(X) * R(右) D类 × M(M) ,测试地面真相 * R(右) M(M) ,一个预先指定的正则化参数 α , β , γ .
输出: 
= { 一个 c(c) c(c) ,P(P)}.
 1:
通过平均滤波对所有训练和测试数据进行预处理;
 2:
评估相似度矩阵通过解方程(20);
 3:
评估最佳投影矩阵P(P)通过求解方程中的特征值分解(10);
 4:
通过以下方式评估所有训练和测试数据的低维特征 z(z) n个 = P(P) T型 x n个 ;
 5:
在低维特征空间中执行KNN和/或SVM并返回分类精度 一个 c(c) c(c) ;
 6:
返回
关于模型复杂度,算法1告诉我们,与其他对比模型(如CGDA和LapCGDA)相比,除了可以在算法开始之前进行的平均滤波预处理步骤外,所提出的SaCGDA和LapSaCGDA没有增加复杂度。

4.实验

在本节中,我们将验证拟议的SaCGDA和LapSaCGDA对HSI特征约简和分类的有效性。将新模型与经典监督DR模型NWFE进行了比较[8],SPPCA[16],加上最近开发的DR技术LapCGDA[7]、SLGDA[34]和LGSFA[44]基于图嵌入判别分析框架,对三个典型的HSI数据集进行分类精度分析。此外,还将经典SVM应用于原始高维光谱特征空间进行比较。由于所有HSI数据集最初都是通过平均滤波进行预处理的,因此原始光谱特征也可以视为光谱空间特征。
为了进行公平的比较,首先所有数据都将通过平均滤波进行预处理 7 × 7 空间窗口,然后选择具有欧几里得距离的K最近邻(KNN)和具有径向基函数(RBF)核的SVM作为降维空间中的分类器,以验证所有DR模型的分类总体精度(OA)、分类平均精度(AA)和Kappa系数(KC)以及真阳性率(TPR)和假阳性率(FPR)。参数K在KNN中设置为5,并且SVM中的核参数是通过给定集合的十次交叉验证来选择的 { 0.001 , 0.01 , 0.1 , 1 , 10 , 100 , 1000 , 10000 } .正则化参数,如 α , β , γ 在LapCGDA中,SLGDA和建议的SaCGDA和LapSaCGDA将通过给定集合的网格搜索进行选择 { 10 6 , 10 5 , , 10 4 } 首先。然后,由于每个DR模型的最佳投影维数必须在模型优化之前预先指定,因此对于每个HSI数据,随机选取相同的训练和测试数据,在投影的低维特征空间中,根据基于KNN的分类精度,在1–30的范围内比较并选择每个DR模型的最佳维数。最后,利用为每个HSI数据和每个DR算法选择的最佳维数,我们进一步比较了随着训练数据数量的增加所有DR技术。当可用的培训数据有限时,也会比较分类图。所有实验重复10次,平均结果以标准偏差(STD)报告。

4.1. 数据描述

三个HSI数据集,包括Pavia University场景、Salinas场景和Indian Pines场景[50]我们的实验中使用了。
2002年,意大利帕维亚大学上空的反射光学系统成像光谱仪(ROSIS-3)传感器捕捉到了帕维亚大学的场景。光谱带数为103,图像分辨率为 610 × 340 像素后删除一些没有信息和噪声带的像素。几何分辨率为 1.3 m.数据集包含九种土地覆盖类型,假彩色成分(FCC)和地面真实性(GT)如所示图1.
萨利纳斯场景(Salinas)于1998年由机载可见/红外成像光谱仪(AVIRIS)传感器在加利福尼亚州萨利纳斯山谷采集,几何分辨率为 3.7 m。此数据的空间大小为 512 × 217 224个光谱带的像素。去除20个吸水带和大气效应带后,光谱带数量变为204个。此数据集中标记了16个基本真理类,假彩色成分和基本真理如所示图2.
印第安松树数据(IndianPines)是1992年AVIRIS传感器捕捉到的印第安纳州西北部的一个场景,包括 145 × 145 像素和200个光谱带,去除带中的噪声和吸水现象。此数据集中考虑了16个基本真理类,假彩色成分和基本真理如所示图3.

4.2. Pavia大学数据的实验

为了证明所提模型的有效性,首先,我们分析参数的敏感性,并为每个DR模型选择最佳参数,因为正则化参数如下 α , β , γ 在LapCGDA中,SLGDA以及拟议的SaCGDA和LapSaCGDA显著影响DR模型的性能。此外,对于建议的SaCGDA和LapSaCGDA,平滑参数t吨在空间先验中也在集合中进行最优搜索 { 2 , 4 , 6 , 8 } 在实验中,从每个类中随机抽取30个样本作为训练数据,投影维数固定为30,以便进行参数的敏感性分析。
从中可以看出图4a对于SaCGDA,最佳参数 β 与参数相比,空间先验显著影响OA α w.r.t.谱局部性先验和最佳平滑参数t吨在我们的实验中,空间先验是2。在LapSaCGDA的参数灵敏度实验中也可以找到类似的结果,这些结果没有完全显示在图4b,因为很难绘制具有三个参数的4D图。这里,我们只需设置参数 α = 0.0001 w.r.t.SaCGDA和LapSaCGDA的光谱局部性先于其他参数,因为OA对参数不敏感 α 基于参数灵敏度的实验结果。LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳正则化参数列于表1,将用于以下实验。此外,可以从中找到什么图4b和表1这是最好的参数吗 γ LapSaCGDA中先验谱流形大于最优参数 α w.r.t.谱局部先验,这意味着流形先验对DR模型的影响比简单局部先验更大。
基于网格搜索选择的这些最优参数,我们进一步根据在低维投影空间中执行的基于KNN和SVM的OA选择投影空间的最佳维数。嵌入空间的最佳维数将从1到30的范围内选择。
从中可以看到什么图5提出的SaCGDA和LapSaCGDA在几乎所有低维投影空间中都优于其他DR模型,并且该HSI数据中每个DR模型的最佳维数为30。还应该强调的是,在低维投影空间中,来自所提出SaCGDA和LapSaCGDA的基于KNN的OA显著优于基于原始高维特征的SVM,这意味着所学习的低维特征具有很强的区分性。
此外,我们还展示了随机选择不同数量的训练数据时的实验结果。此外,从每个类别中随机选择20-80个样本,其余样本用于测试。可以从以下位置查看表2提出的SaCGDA和LapSaCGDA显著优于其他最先进的DR技术和SVM。此外,基于LapSaCGDA在KNN和SVM OAs方面优于SaCGDA的事实,我们可以证明谱拉普拉斯先验可以提高SaCGDA的性能。
最后,为了在有限的训练数据可用时显示不同方法对每个类的分类结果,我们从每个类中随机选择20个样本来比较八种算法。不同算法的结果客观和主观地显示在表3图6分别是。从中可以看到什么表3在大多数类别中,提出的SaCGDA和LapSaCGDA在AA、OA、KC以及TPR和FPR方面都优于其他模型,并且LapSaCGDA比SaCGDA实现了更高的精度,这清楚地表明LapSaCPDA中的Laplacian正则化对DR模型是有益的。因此,图6主观地告诉我们,所提出方法的分类图w.r.t.测试数据比其他对比方法更准确。

4.3. Salinas数据实验

为了进一步验证针对不同HSI传感器的HSI数据提出的模型,我们利用AVIRIS传感器捕获的Salinas数据来证明新方法的有效性。类似地,我们首先选择最佳正则化参数,如 α , β , γ 在LapCGDA、SLGDA中,除了正则化参数外,平滑参数t吨在通过网格搜索提出的SaCGDA和LapSaCGDA的空间先验中。将嵌入维数设置为30,并从每个类中随机抽取30个训练样本,以便比较参数敏感性。
根据图7a、 正则化参数 α SaCGDA对OA变得敏感,但最佳值仍小于0.001。因此,我们设置 α = 0.0001 适用于SaCGDA和LapSaCGDA。此外,还可以从以下位置查看图7b最佳参数 γ w.r.t.在LapSaCGDA中,谱流形先验是0.1,这意味着与参数相比,该流形先期对DR模型的影响很大 α w.r.t.先验光谱局域性。此外,对于此数据集,最佳平滑参数t吨通过网格搜索,SaCGDA和LapSaCGDA的空间先验值为4。表4显示了从参数敏感性实验中获得的最佳参数,这些参数将用于以下实验。
一旦通过网格搜索选择了这些最优参数,我们就应该根据在低维投影空间中执行的基于KNN和SVM的OA来选择投影空间的最佳维数。从中可以看到什么图8提出的SaCGDA和LapSaCGDA在几乎所有低维投影空间中再次优于其他DR模型,并且该HSI数据中每个DR模型的最佳维数为30。
此外,基于最优投影维数,我们还客观地显示了随着训练数据量的增加,实验结果。此外,从所有标记数据中随机抽取20–80个样本,其余样本用于测试。我们可以从中得出结论表5建议的SaCGDA和LapSaCGDA实现了最佳的OA,尤其是当只有少量训练数据可用时。
最后,我们从每个类别中选择20个样本,比较每个类别的所有模型的分类精度。可以从以下位置查看表6,所提出的两个模型在几乎所有类中都获得了最高的精度,并且由于LapSaCGDA中的Laplacian先验性,LapSaCGDA略优于SaCGDA。中的分类图图9给出类似的结论。

4.4. 关于印度松树数据的实验

另一个具有挑战性的HSI数据是印度松树数据,也由AVIRIS传感器捕获。最佳正则化参数,如 α , β , γ 在建议的SaCGDA和LapSaCGDA中,可以从中的参数敏感性分析实验中观察到图10,以及最佳平滑参数t吨在空间先验是2。在这些实验中,从每个类中随机抽取30个训练样本,投影维数也固定为30,以便进行参数敏感性分析。
可以从何处查看图10a是OA对参数不敏感 α w.r.t.由于最优参数,SaCGDA中的光谱局部性优先 β = 5000 主导模型的因素太大,以至于忽略了其他约束。对于LapSaCGDA,最佳参数 γ w.r.t.之前的歧管也很小,根据图10b.LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳正则化参数列于表7用于以下实验。
基于网格搜索选择的这些最优参数,可以从以下公式中获得每个DR模型的投影空间的最佳维数图11基于KNN和SVM的OA在低维投影空间中执行。再次,在HSI数据中,几乎每个DR模型的最佳维数为30,尽管LGSFA在基于KNN的高维嵌入空间中显示出比较好的OA,但所提出的SaCGDA和LapSaCGDA是所有模型中最好的。
此外,我们还展示了当选择不同数量的训练数据时的实验结果。此外,从所有标记数据中随机抽取20-80个样本,其他样本成为测试数据。对于可用样本较少的类,不超过 60 % 将从属于某些类的所有数据中随机选择样本。可以从中看到表8与提出的SaCGDA和LapSaCGDA相比,LGSFA证明了基于KNN的OA是比较好的,而这两种新模型在SVM分类精度方面优于LGSFA和其他方法。作为具有较大正则化参数的空间先验 β = 5000 LapSaCGDA占主导地位,与SaCGDA相比,LapSaCGDA显示出相同的结果,因为忽略了LapSaCPDA中的两个谱约束,在这种情况下,LapSaGCDA减少为SaCGDA。
最后,随机选取20个样本,基于SVM对每个类进行相似的分类精度检验。可以从中看到表9当仅利用空间先验信息时,提出的SaCGDA和LapSaCGDA模型优于其他模型,这再次证明了空间先验的有效性。因此,图12结果表明,提出的SaCGDA和LapSaCGDA的分类图比其他方法更准确。

4.5. 讨论

根据上述实验结果,我们可以进行以下讨论,
(i)
在大多数情况下,提出的SaCGDA在OA、AA、KC、TPR和FPR方面显著优于SVM、SPPCA、NWFE、SLGDA、LapCGDA和LGSFA,因此,基于新模型的分类图比其他监督DR算法的结果更平滑、更准确。这些结果清楚地表明,引入的空间约束对像素之间的空间关系建模非常有效。
(ii)
拉普拉斯正则化SaCGDA(LapSaCGDA)通过进一步在SaCGDA中引入拉普拉斯约束,使相似像素共享相似表示,可以优于SaCGDA。实验结果表明,由于LapSaCGDA能够更有效地揭示HSI数据的固有流形结构,因此在大多数情况下,LapSaCGDA比SaCGDA具有更高的精度。
(iii)
值得指出的是,SVM分类器总是比KNN分类器提供更好的分类结果。然而,如果我们将基于所提出的两个模型的KNN的OAs与基于其他DR技术(如NWFE、SLGDA、LapCGDA和LGSFA)的SVM的OAs进行比较,我们可以发现KNN的分类结果优于SVM,这进一步证明了所提出的两种算法比其他对比方法更有效地提取有区别的低维特征。

5.结论

本文基于图嵌入判别分析框架,提出了两种新的HSI数据有监督降维模型SaCGDA和LapSaCGDA,为了考虑嵌入到高维谱特征中的复杂数据流形结构,将拉普拉斯约束进一步引入到SaCGDA中,从而得到具有高效谱和空间正则化的LapSaCGDA。为了进一步提高DR模型的性能,HSI中的每个样本首先通过空间平均其相邻像素进行预处理,这在执行DR之前带来了光谱空间特征,各种实验表明,基于新模型可以有效地提取用于分类的判别特征。
对于未来的工作,LGSFA中的各种空间约束,如局部重建点、基于超像素和超图的空间正则化模型[44]、SLGDE[29]和SSHGDA[43]也可以引入到CGDA中,并且有望在所提出的LapSaCGDA中添加惩罚图,这可以进一步提高性能。

作者贡献

X.J.主要负责数学建模和实验设计。X.S.和Y.Z.进行了实验并撰写了论文。J.J.对本文的一些观点作出了贡献。J.G.提出了重要建议并修订了论文。Z.C.审查并编辑了草案。

基金

这项工作得到了61402424、61773355、61403351号国家自然科学基金、2016ZX05014003-003号国家科技重大项目和中国地质大学(武汉)中央高校基本科研业务费专项资金的支持。姜新伟和宋欣还感谢中国奖学金委员会(CSC ID:201706415032和201606410065)的资助,该项目是在澳大利亚悉尼大学完成的。

致谢

为了进行比较,作者感谢李伟和罗富林分享了LapCGDA、SLGDA和LGSFA的MATLAB代码。

利益冲突

作者声明没有利益冲突。

工具书类

  1. Zhang,Y。;Wu,K。;杜,B。;张,L。;Hu,X.通过自适应联合稀疏表示和带位置信息的多任务学习进行高光谱目标检测。远程传感器。 2017,9, 482. [谷歌学者] [交叉参考]
  2. 加米西,P。;J.广场。;陈,Y。;李,J。;Plaza,A.J.高光谱图像高级光谱分类器:综述。IEEE地质科学。远程传感器磁。 2017,5, 8–32. [谷歌学者] [交叉参考]
  3. 马,J。;吴杰。;赵,J。;姜杰。;周,H。;Sheng,Q.Z。流形正则化下具有鲁棒变换学习的非刚性点集配准。IEEE传输。神经网络。学习。系统。 2018,正在印刷中。[谷歌学者] [交叉参考] [公共医学]
  4. 刘,P。;Choo,K.K.R。;Wang,L。;黄,F.SVM还是深度学习?遥感图像分类的比较研究。软计算。 2017,21, 7053–7065. [谷歌学者] [交叉参考]
  5. 张,L。;张,L。;Du,B.遥感数据深度学习:最新技术教程。IEEE地质科学。远程传感器磁。 2016,4, 22–40. [谷歌学者] [交叉参考]
  6. Wang,L。;张杰。;刘,P。;Choo,K.K.R。;Huang,F.用于高光谱遥感图像分类的基于光谱空间多特征的深度学习。软计算。 2017,21, 213–221. [谷歌学者] [交叉参考]
  7. 李伟(Li,W.)。;Du,Q.高光谱遥感图像中基于表征的分类和检测研究综述。模式识别。莱特。 2016,83, 115–123. [谷歌学者] [交叉参考]
  8. 贾,X。;Kuo,不列颠哥伦比亚省。;Crawford,M.M.高光谱图像分类的特征挖掘。程序。电气与电子工程师协会 2013,101, 676–697. [谷歌学者] [交叉参考]
  9. 袁,H。;Tang,Y.Y。;卢,Y。;Yang,L。;Luo,H.基于判别分析的高光谱图像的光谱空间分类。IEEE J.选择。顶部。申请。地球目标遥感。 2014,7, 2035–2043. [谷歌学者] [交叉参考]
  10. 姜杰。;陈,C。;Yu,Y。;蒋,X。;Ma,J.高光谱遥感图像分类的空间感知协作表示。IEEE地质科学。遥感快报。 2017,14, 404–408. [谷歌学者] [交叉参考]
  11. 蒋,X。;方,X。;陈,Z。;高杰。;江,J。;蔡,Z。用于高光谱图像分类的监督高斯过程潜在变量模型。IEEE地质科学。遥感快报。 2017,14, 1760–1764. [谷歌学者] [交叉参考]
  12. 李伟(Li,W.)。;冯,F。;李,H。;Du,Q.基于判别分析的高光谱图像分类降维:最新进展综述和不同技术的实验比较。IEEE地质科学。远程传感器磁。 2018,6, 15–34. [谷歌学者] [交叉参考]
  13. C.M.主教。模式识别与机器学习; 施普林格:德国柏林,2006年。[谷歌学者]
  14. 坎迪斯,E.J。;李,X。;马云(Ma,Y.)。;Wright,J.稳健主成分分析?美国临床医学杂志 2011,58, 11. [谷歌学者] [交叉参考]
  15. 邹,H。;哈斯蒂,T。;Tibshirani,R.稀疏主成分分析。J.计算。图表。统计。 2006,15, 265–286. [谷歌学者] [交叉参考]
  16. 夏,J。;查努索特,J。;杜,P。;He,X.(半)监督高光谱遥感图像分类的概率主成分分析。IEEE J.选择。顶部。申请。地球目标遥感。 2014,7,2224–2236页。[谷歌学者] [交叉参考]
  17. 库特卢克,S。;Kayabol,K。;Akan,A.使用混合概率PCA模型对高光谱图像进行分类。2016年8月29日至9月2日在匈牙利布达佩斯举行的第24届欧洲信号处理会议记录;第1568–1572页。[谷歌学者]
  18. 任,Y。;Liao,L。;马来亚银行。;Zhang,Y。;Liu,X.基于张量主成分分析的高光谱图像光谱空间特征提取。IEEE地质科学。遥感快报。 2017,14, 1431–1435. [谷歌学者] [交叉参考]
  19. 严,S。;徐,D。;张,B。;张海杰。;杨琼。;Lin,S.图嵌入与扩展:降维的一般框架。IEEE传输。模式分析。机器。智力。 2007,29, 40–51. [谷歌学者] [交叉参考] [绿色版本]
  20. Lunga,D。;普拉萨德,S。;M.M.克劳福德。;Ersoy,O.基于流形学习的高光谱数据分类特征提取:流形学习进展综述。IEEE信号处理。美格。 2014,31, 55–66. [谷歌学者] [交叉参考]
  21. 马,J。;姜杰。;周,H。;赵,J。;Guo,X.遥感图像配准中的局部保持特征匹配。IEEE传输。地质科学。远程传感器。 2018,56, 4435–4447. [谷歌学者] [交叉参考]
  22. 范德马滕,L。;Postma,E.O。;范登·赫里克,H.J。降维:比较综述; 技术报告;蒂尔堡大学:荷兰蒂尔堡,2008年。[谷歌学者]
  23. 乔·L。;陈,S。;Tan,X.稀疏保持投影在人脸识别中的应用。模式识别。 2010,43, 331–341. [谷歌学者] [交叉参考] [绿色版本]
  24. 杨伟(Yang,W.)。;王,Z。;Sun,C.一种用于特征提取的基于协作表示的投影方法。模式识别。 2015,48, 20–27. [谷歌学者] [交叉参考]
  25. 卢,Y。;赖,Z。;Xu,Y。;李,X。;张,D。;袁,C.低水位保护预测。IEEE传输。赛博。 2016,46, 1900–1913. [谷歌学者] [交叉参考] [公共医学]
  26. Bandos,T.V.公司。;布鲁松。;Camps-Valls,G.用正则化线性判别分析对高光谱图像进行分类。IEEE传输。地质科学。远程传感器。 2009,47, 862–873. [谷歌学者] [交叉参考]
  27. Du,Q.高光谱图像的修正Fisher线性判别分析。IEEE地质科学。遥感快报。 2007,4, 503–507. [谷歌学者] [交叉参考]
  28. Sugiyama,M.通过局部fisher判别分析对多模态标记数据进行降维。J.马赫。学习。物件。 2007,8, 1027–1061. [谷歌学者]
  29. Hang,R。;Liu,Q.利用空间正则化局部图判别嵌入降低高光谱图像的维数。IEEE J.选择。顶部。申请。地球目标遥感。 2018,11, 3262–3271. [谷歌学者] [交叉参考]
  30. 新罕布什尔州李。;杜琪。;Fowler,J.E.高光谱图像的稀疏图判别分析。IEEE传输。地质科学。远程传感器。 2014,52, 3872–3884. [谷歌学者]
  31. He,W。;张,H。;张,L。;菲利普斯,W。;Liao,W.基于加权稀疏图的高光谱图像降维。IEEE地质科学。遥感快报。 2016,13, 686–690. [谷歌学者] [交叉参考]
  32. Ly,新罕布什尔州。;杜琪。;Fowler,J.E.高光谱图像的基于图形的协作鉴别分析。IEEE J.选择。顶部。申请。地球目标遥感。 2014,7, 2688–2696. [谷歌学者] [交叉参考]
  33. 陈,M。;王,Q。;Li,X.高光谱图像分类的判别分析与图形学习。远程传感器。 2018,10, 836. [谷歌学者] [交叉参考]
  34. 李伟(Li,W.)。;刘杰。;Du,Q.高光谱图像判别分析的稀疏低秩图。IEEE传输。地质科学。远程传感器。 2016,54, 4094–4105. [谷歌学者] [交叉参考]
  35. 袁,H。;Tang,Y.Y.光谱-空间共享线性回归用于高光谱图像分类。IEEE传输。赛博。 2017,47, 934–945. [谷歌学者] [交叉参考] [公共医学]
  36. 李,H。;Ye,Z。;Xiao,G.利用光谱-空间复合核判别分析进行高光谱图像分类。IEEE J.选择。顶部。申请。地球目标遥感。 2015,8, 2341–2350. [谷歌学者] [交叉参考]
  37. 方,Y。;李,H。;马云(Ma,Y.)。;Liang,K。;胡,Y。;张,S。;Wang,H.使用局部线性嵌入基于鲁棒空间信息的高光谱图像降维。IEEE地质科学。遥感快报。 2014,11, 1712–1716. [谷歌学者] [交叉参考]
  38. Liao,W。;Dalla Mura,M。;查努索特,J。;Pizurica,A.通过局部图对高光谱遥感图像进行分类的光谱和空间信息的融合。IEEE J.选择。顶部。申请。地球目标遥感。 2016,9, 583–594. [谷歌学者] [交叉参考]
  39. 姜杰。;马,J。;陈,C。;王,Z。;蔡,Z。;Wang,L.SuperPCA:一种超像素PCA方法,用于高光谱图像的无监督特征提取。IEEE传输。地质科学。远程传感器。 2018,56, 4581–4593. [谷歌学者] [交叉参考]
  40. 陈,Z。;姜杰。;蒋,X。;方,X。;蔡,Z。基于传播滤波器的高光谱图像光谱空间特征提取。传感器 2018,18, 1978. [谷歌学者] [交叉参考]
  41. 周,Y。;彭杰。;Chen,C.P.使用空间和光谱正则化局部判别嵌入进行高光谱图像分类的降维。IEEE传输。地质科学。远程传感器。 2015,53, 1082–1095. [谷歌学者] [交叉参考]
  42. 袁,H。;卢,Y。;Yang,L。;罗,H。;Tang,Y.Y.高光谱图像分类的光谱-空间线性判别分析。2013年6月13日至15日在瑞士洛桑举行的IEEE控制论国际会议记录;第144-149页。[谷歌学者]
  43. 罗,F。;杜,B。;张,L。;张,L。;Tao,D.利用高光谱图像的空间谱超图判别分析进行特征学习。IEEE传输。赛博。 2018,正在印刷中。[谷歌学者] [交叉参考]
  44. 罗,F。;黄,H。;Duan,Y。;刘杰。;Liao,Y.高光谱图像降维的局部几何结构特征。远程传感器。 2017,9,790。[谷歌学者] [交叉参考]
  45. He,L。;李,J。;刘,C。;Li,S.光谱-空间高光谱图像分类的最新进展:概述和新指南。IEEE传输。地质科学。远程传感器。 2018,56, 1579–1597. [谷歌学者] [交叉参考]
  46. 李伟(Li,W.)。;Du,Q.高光谱图像分类中的类内协作表示。IEEE J.选择。顶部。申请。地球目标遥感。 2014,7, 2200–2208. [谷歌学者] [交叉参考]
  47. 贾毅,M。;季,Z。;Jinwen,T。;向,B。;Zhoowen,T.用稀疏近似正则化向量场学习来消除失配。模式识别。 2013,46,3519–3532。[谷歌学者]
  48. 贾毅,M。;陈,C。;Chang,L。;Jun,H.通过梯度转移和总变差最小化进行红外和可见光图像融合。Inf.保险丝。 2016,31, 100–109. [谷歌学者]
  49. 李伟(Li,W.)。;特拉梅尔,E.W。;普拉萨德,S。;Fowler,J.E.高光谱分类的最近正则子空间。IEEE传输。地质科学。远程传感器。 2014,52, 477–489. [谷歌学者] [交叉参考]
  50. Romay,D.M.G.高光谱遥感场景。在线可用:http://alweb.ehu.es/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes(2018年12月25日访问)。
图1。Pavia大学数据的假彩色成分和基本真相,括号中为每个类别的样本数。
图1。Pavia大学数据的假彩色成分和基本真相,括号中为每个类别的样本数。
远程调校11 00029 g001
图2。Salinas数据的假彩色成分和基本真相,括号中为每个类别的样本数。
图2。Salinas数据的假彩色成分和基本真相,括号中为每个类别的样本数。
远程调校11 00029 g002
图3。印度松树数据的假彩色成分和基本真相,括号内为每个类别的样本数量。
图3。印度松树数据的假彩色成分和基本真相,括号内为每个类别的样本数量。
远程调校11 00029 g003
图4。帕维亚大学数据中不同正则化参数的分类精度:()正则化参数的参数敏感性分析 α , β SaCGDA。(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
图4。帕维亚大学数据中不同正则化参数的分类精度:()正则化参数的参数敏感性分析 α , β SaCGDA。(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
遥感11 00029 g004
图5。帕维亚大学数据上投影空间不同维度的分类精度:()基于KNN的OA;(b条)基于支持向量机的OA。
图5。帕维亚大学数据上投影空间不同维度的分类精度:()基于KNN的OA;(b条)基于支持向量机的OA。
远程调整11 00029 g005
图6。基于SVM的不同DR模型在Pavia University数据上的分类图,其中Ground Truths(GTs)对应于训练和测试数据。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))西北财经大学。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
图6。基于SVM的不同DR模型在Pavia University数据上的分类图,其中Ground Truths(GTs)对应于训练和测试数据。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))西北财经大学。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
远程设置11 00029 g006
图7。Salinas数据上不同正则化参数的分类精度(OA):()正则化参数的参数敏感性分析 α , β SaCGDA;(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
图7。Salinas数据上不同正则化参数的分类精度(OA):()正则化参数的参数敏感性分析 α , β SaCGDA;(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
远程设置11 00029 g007
图8。Salinas数据上投影空间不同维度的分类精度(OA):()基于KNN的OA;(b条)基于SVM的OAs。
图8。Salinas数据上投影空间不同维度的分类精度(OA):()基于KNN的OA;(b条)基于SVM的OAs。
远程调校11 00029 g008
图9。基于SVM的不同DR模型在Salinas数据上的分类图,与训练和测试数据对应的地面实况(GTs)。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))西北财经大学。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
图9。基于SVM的不同DR模型在Salinas数据上的分类图,其中地面真实度(GTs)对应于训练和测试数据。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))西北财经大学。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
遥感11 00029 g009
图10。印度松树数据不同正则化参数的分类精度(OA):()正则化参数的参数敏感性分析 α , β SaCGDA;(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
图10。印度松树数据上不同正则化参数的分类精度(OA):()正则化参数的参数敏感性分析 α , β SaCGDA;(b条)正则化参数的参数敏感性分析 β , γ 在LapSaCGDA中。
远程调整11 00029 g010
图11。印度松树数据投影空间不同维度的分类精度:()基于KNN的OA;(b条)基于SVM的OAs。
图11。印度松树数据投影空间不同维度的分类精度:()基于KNN的OA;(b条)基于SVM的OAs。
远程设置11 00029 g011
图12。基于SVM的不同DR模型在印度松数据上的分类图,其中地面实况(GTs)对应于训练和测试数据。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))NWFE公司。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
图12。基于SVM的不同DR模型在印度松数据上的分类图,其中地面实况(GTs)对应于训练和测试数据。()培训GT(b条)测试燃气轮机(c(c))支持向量机。(d日)SPPCA。(e(电子))NWFE公司。((f))SLGDA。()LapCGDA。(小时)LGSFA。()SaCGDA。(j个)LapSaCGDA。
远程调校11 00029 g012
表1。帕维亚大学数据中LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
表1。Pavia大学数据中LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
模型 α β γ
LapCGDA公司0.1100
SLGDA公司1010
SaCGDA公司0.0001100
LapSaCGDA公司0.000110000.01
表2。帕维亚大学数据中不同训练数据量的分类结果(OA±STD(%))。
表2。帕维亚大学数据中不同训练数据量的分类结果(OA±STD(%))。
分类器DR模型 n个 = 20 n个 = 40 n个 = 60 n个 = 80
KNN公司SPPCA公司69.58 ± 1.7976.67 ± 3.2781.53± 2.5784.34 ± 2
西北财经大学69.18 ± 3.3475.87 ± 2.5580.93 ± 2.2583.64 ± 1.32
SLGDA公司78.56 ± 7.0586.45 ± 1.3288.73 ± 2.3691.13 ± 1.45
LapCGDA公司71.74 ± 4.9878.65 ± 3.7584.16 ± 1.8786.32 ± 1.73
LGSFA公司81.8±3.6889.57 ± 1.3292.98 ± 0.9994.67 ± 0.82
SaCGDA公司87.73 ± 4.3894.81 ± 1.2196.44±0.7897.35 ± 0.57
LapSaCGDA公司90.29 ± 1.1195.23 ± 0.5596.52 ± 0.3797.63 ± 0.4
支持向量机SPPCA公司90.39 ± 2.4693.33 ± 1.0694.6± 0.7595.4 ± 0.36
西北财经大学89.65 ± 1.9492.55 ± 1.0494.24 ± 0.7595.37 ± 0.38
SLGDA公司89.03 ± 2.3292.19±1.3793.65 ± 0.7195.01 ± 0.66
LapCGDA公司90.47 ± 1.7892.94 ± 0.9194.84 ± 0.4995.82 ± 0.4
LGSFA公司85.76 ± 2.0992.84 ± 1.1895.32±0.3496.5 ± 0.34
SaCGDA公司95.62 ± 0.9697.25 ± 0.9598.08 ± 0.7198.68 ± 0.33
LapSaCGDA公司95.69 ± 1.0597.57 ± 1.0798.56 ± 0.4798.86 ± 0.26
表3。基于SVM的不同DR方法对Pavia University数据的分类结果(每个类的TPR和FPR分别显示在垂直线的左侧和右侧)。
表3。基于SVM的不同DR方法对Pavia University数据的分类结果(每个类的TPR和FPR分别显示在垂直线的左侧和右侧)。
等级样品灾难恢复模型
列车测试支持向量机SPPCA公司西北财经大学SLGDA公司LapCGDA公司LGSFA公司SaCGDA公司LapSaCGDA公司
120661183.6 | 93.983.6 | 96.289.3 | 92.789.3 | 95.185.3 | 96.080.8 | 92.391.6 | 97.191.1 | 97.7
22018,62992.6 | 95.395.9 | 96.488.6 | 97.991.6 | 97.990.7 | 97.592.9 | 96.396.8 | 96.998.8 | 97.0
20207979.6 | 87.378.3 | 83.081.0 | 84.575.6 | 91.379.8 | 91.583.5 | 63.392.5 | 98.993.2 | 98.7
420304490.5 | 90.485.4 | 94.090.6 | 80.092.1 | 92.188.6 | 77.680.3 | 93.590.8 | 92.490.6 | 91.7
520132599.6 | 96.1100.0 | 99.8100.0 | 99.6100.0 | 99.6100.0 | 99.898.4 | 100.0100.0 | 99.8100.0 | 99.9
620500982.2 | 77.093.0 | 86.491.0 | 73.993.1 | 76.894.5 | 81.490.3 | 80.792.2 | 94.492.5 | 99.7
720131097.0 | 66.298.5 | 83.098.3 | 82.898.6 | 83.498.7 | 71.898.1 | 77.398.3 | 87.798.5 | 84.8
820366288.7 | 78.886.7 | 76.785.2 | 79.491.6 | 78.291.8 | 80.672.9 | 67.096.5 | 85.196.5 | 89.3
92092794.6 | 97.297.3 | 76.194.9 | 93.396.2 | 93.395.6 | 90.295.8 | 94.695.9 | 91.597.1 | 87.0
AA(%)86.98887.189.787.48593.794
办公自动化(%)89.391.589.391.290.48894.995.8
KC公司0.90.90.90.90.90.80.90.9
表4。Salinas数据上LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
表4。Salinas数据上LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
模型 α β γ
LapCGDA公司0.011
SLGDA公司1010
SaCGDA公司0.00011000
LapSaCGDA公司0.000110000.1
表5。Salinas数据上不同数量训练数据的分类结果(OA±STD(%))。
表5。Salinas数据上不同数量训练数据的分类结果(OA±STD(%))。
分类器DR模型 n个 = 20 n个 = 40 n个 = 60 n个 = 80
千年网络SPPCA公司89.47 ± 5.992.08 ± 3.3592.74 ± 2.0394.36 ± 2.13
西北财经大学88.57 ± 1.8191.08 ± 0.6192.24 ± 0.5893.36 ± 0.54
SLGDA公司89.53 ± 1.8592.7 ± 0.6293.67 ± 0.7194.44 ± 0.79
LapCGDA公司88.39 ± 2.2591.76 ± 1.192.71 ± 1.4893.52±0.78
LGSFA公司92.56 ± 1.5395.16 ± 0.5595.76 ± 0.5196.36 ± 0.32
SaCGDA公司97.34 ± 0.6598.29 ± 0.4398.69 ± 0.4998.93 ± 0.31
LapSaCGDA公司97.29 ± 0.4398.58 ± 0.3498.7 ± 0.1598.92 ± 0.19
支持向量机SPPCA公司92.92±0.9695.06 ± 0.5395.91 ± 0.3796.47 ± 0.42
西北财经大学92.85 ± 1.0194.62 ± 0.5695.31 ± 0.6796.32 ± 0.26
SLGDA公司92.9 ± 1.2595.25 ± 0.696.02 ± 0.3496.35 ± 0.41
LapCGDA公司92.66 ± 1.2594.98 ± 0.8795.65 ± 0.9196.58 ± 0.15
LGSFA公司92.46±1.3795.06 ± 0.5696.08 ± 0.4396.85 ± 0.43
SaCGDA公司99.05 ± 0.3199.44 ± 0.1599.41 ± 0.3599.62 ± 0.21
LapSaCGDA公司99.04 ± 0.2499.38±0.2899.48 ± 0.1199.61 ± 0.15
表6。基于SVM的不同DR方法对Salinas数据的分类结果(每个类的TPR和FPR分别显示在垂直线的左侧和右侧)。
表6。基于SVM的不同DR方法对Salinas数据的分类结果(每个类的TPR和FPR分别显示在垂直线的左侧和右侧)。
等级样品灾难恢复模型
列车测试支持向量机SPPCA公司西北财经大学SLGDA公司LapCGDA公司LGSFA公司SaCGDA公司LapSaCGDA公司
120198992.2 | 96.1100.0 | 99.294.0 | 100.099.5 | 98.599.9 | 100.0100.0 | 100.099.6 | 100.099.6 | 100.0
220370699.3 | 96.899.9 | 100.098.8 | 97.099.9 | 99.799.9 | 100.0100.0 | 100.0100.0 | 99.8100.0 | 99.8
20195699.5 | 90.399.8 | 98.599.8 | 92.6100.0 | 99.9100.0 | 99.0100.0 | 99.3100.0 | 95.6100.0 | 94.7
420137497.1 | 95.696.7 | 99.097.3 | 99.397.2 | 99.098.0 | 98.597.7 | 99.897.7 | 92.698.0 | 91.6
520265888.2 | 95.797.8 | 97.192.0 | 95.797.4 | 97.697.9 | 98.097.3 | 97.794.4 | 98.793.9 | 99.3
620393999.2 | 100.099.8 | 100.099.5 | 100.099.6 | 100.099.9 | 100.0100.0 | 100.0100.0 | 100.0100.0 | 100.0
720355998.3 | 98.099.9 | 99.998.7 | 98.6100.0 | 99.899.5 | 99.9100.0 | 100.0100.0 | 100.099.9 | 100.0
82011,25171.7 | 86.682.7 | 84.681.9 | 93.483.8 | 87.675.7 | 90.885.5 | 89.091.1 | 95.891.9 | 96.1
920618399.6 | 99.899.9 | 99.699.7 | 99.799.8 | 99.799.9 | 99.899.8 | 100.0100.0 | 99.6100.0 | 99.5
1020325896.4 | 82.196.3 | 89.096.7 | 81.298.1 | 91.996.9 | 91.999.9 | 93.198.9 | 99.798.6 | 99.6
1120104895.9 | 93.699.9 | 96.796.6 | 92.8100.0 | 96.398.8 | 94.399.5 | 100.098.7 | 89.599.6 | 92.1
1220190797.2 | 95.799.0 | 99.698.1 | 97.399.0 | 99.999.7 | 98.8100.0 | 99.999.8 | 99.699.7 | 99.7
132089694.5 | 95.198.0 | 98.296.0 | 97.999.1 | 100.097.0 | 99.299.9 | 100.099.3 | 99.999.7 | 100.0
1420105097.2 | 79.099.0 | 92.998.8 | 75.5100.0 | 97.399.9 | 96.299.5 | 99.099.0 | 98.599.4 | 98.2
1520724880.1 | 69.574.7 | 75.886.8 | 82.180.6 | 78.085.9 | 70.683.2 | 80.493.3 | 88.493.4 | 89.2
1620178794.0 | 95.997.8 | 100.099.3 | 97.599.3 | 100.099.1 | 96.499.2 | 99.8100.0 | 100.0100.0 | 100.0
AA(%)91.995.693.896.695.897.497.497.5
OA(%)89.492.39393.592.594.496.896.9
KC公司0.90.90.90.90.90.911
表7。印度松树数据上LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
表7。印度松树数据上LapCGDA、SLGDA、SaCGDA和LapSaCGDA的最佳参数设置。
模型 α β γ
LapCGDA公司0.01100
SLGDA公司1001
SaCGDA公司0.00015000
LapSaCGDA公司0.000150000.0001
表8。不同训练数据对印度松数据的分类结果(OA±STD(%))。
表8。不同训练数据对印度松数据的分类结果(OA±STD(%))。
分类器DR模型 n个 = 20 n个 = 40 n个 = 60 n个 = 80
KNN公司SPPCA公司66.04 ± 1.4276.35 ± 1.381.18 ± 0.8984.35±1.05
西北财经大学69.5 ± 1.7577.93 ± 1.5581.3 ± 1.0683.33 ± 1.09
SLGDA公司76.75 ± 1.3384.59 ± 1.3788.28 ± 0.9889.6±1.15
LapCGDA公司67.31 ± 2.6881.09 ± 1.3583.9 ± 1.4485.66 ± 0.85
LGSFA公司84.34 ± 1.6292.63 ± 1.1795.15 ± 0.7595.54 ± 0.85
SaCGDA公司84.97 ± 0.9991.67 ± 0.593.91 ± 0.695.45 ± 0.37
LapSaCGDA公司84.97 ± 0.9991.67±0.4993.91 ± 0.695.45 ± 0.37
支持向量机SPPCA公司79.26 ± 1.5185.89 ± 1.1289.3 ± 0.7390.92 ± 0.56
西北财经大学83.35 ± 1.4989.9 ± 0.8292.37 ± 0.8393.79 ± 0.9
SLGDA公司85.17 ± 1.3991.23 ± 0.9494.17 ± 0.6295.16 ± 0.99
LapCGDA公司77.18±2.9191.04 ± 0.993.61 ± 0.7794.66 ± 0.72
LGSFA公司84.05 ± 1.9492.59 ± 1.1595.37 ± 0.595.74 ± 0.59
SaCGDA公司91.43 ± 0.8695.36±0.7796.98 ± 0.5497.85 ± 0.28
LapSaCGDA公司91.43 ± 0.8695.36 ± 0.7796.98 ± 0.5497.85±0.28
表9。基于SVM的不同DR方法对印度松数据的分类结果(每个类别的TPR和FPR分别显示在垂直线的左侧和右侧)。
表9。基于SVM的不同DR方法对印度松数据的分类结果(每个类别的TPR和FPR分别显示在垂直线的左侧和右侧)。
等级样品灾难恢复模型
列车测试支持向量机SPPCA公司西北财经大学SLGDA公司LapCGDA公司LGSFA公司SaCGDA公司LapSaCGDA公司
12026100.0 | 47.3100.0 | 43.3100.0 | 65.0100.0 | 72.2100.0 | 59.1100.0 | 47.3100.0 | 54.2100.0 | 54.2
220140871.9 | 83.863.8 | 77.279.0 | 87.479.0 | 87.775.6 | 92.175.5 | 85.381.9 | 97.581.9 | 97.5
2081080.5 | 66.178.9 | 85.782.6 | 86.184.6 | 83.285.2 | 81.880.5 | 73.186.7 | 80.886.7 | 80.8
42021796.8 | 73.294.5 | 75.996.8 | 68.995.9 | 73.096.3 | 75.596.8 | 70.998.2 | 95.998.2 | 95.9
52046376.5 | 87.676.9 | 100.086.4 | 80.882.5 | 83.286.4 | 72.987.3 | 99.586.6 | 100.086.6 | 100.0
62071092.4 | 91.495.4 | 98.396.9 | 94.497.0 | 97.598.0 | 98.794.9 | 90.798.0 | 96.498.0 | 96.4
71711100.0 | 30.6100.0 | 37.9100.0 | 28.2100.0 | 78.6100.0 | 61.1100.0 | 84.6100.0 | 33.3100.0 | 33.3
82045898.7 | 100.099.6 | 100.099.6 | 100.0100.0 | 100.099.6 | 100.099.6 | 100.0100.0 | 100.0100.0 | 100.0
9128100.0 | 6.5100.0 | 19.0100.0 | 8.2100.0 | 9.9100.0 | 14.8100.0 | 26.7100.0 | 26.7100.0 | 26.7
102095282.8 | 71.985.4 | 62.086.6 | 67.091.2 | 69.790.8 | 67.989.0 | 63.196.3 | 62.496.3 | 62.4
1120243567.9 | 92.469.7 | 85.171.8 | 95.871.7 | 96.370.4 | 95.164.3 | 91.683.1 | 97.583.1 | 97.5
122057390.2 | 67.782.5 | 52.493.4 | 64.092.0 | 67.694.6 | 64.588.0 | 66.995.3 | 95.095.3 | 95.0
132018589.2 | 59.899.5 | 99.597.3 | 92.397.8 | 97.898.9 | 98.9100.0 | 98.999.5 | 97.999.5 | 97.9
1420124591.8 | 94.593.3 | 98.092.7 | 99.797.8 | 97.696.1 | 99.796.5 | 98.899.4 | 99.799.4 | 99.7
152036677.3 | 62.681.1 | 62.979.2 | 70.792.3 | 73.2第85.2页|第67.7页97.8 | 69.489.1 | 93.189.1 | 93.1
162073100.0 | 88.0100.0 | 97.3100.0 | 96.1100.0 | 94.8100.0 | 94.897.3 | 86.6100.0 | 96.1100.0 | 96.1
AA(%)70.274.775.380.177.878.382.982.9
办公自动化(%)80.580.284.485.88582.890.390.3
KC公司0.80.80.80.80.80.80.90.9

分享和引用

MDPI和ACS样式

江,X。;宋,X。;Zhang,Y。;姜杰。;高杰。;蔡,Z。用于高光谱图像鉴别分析的拉普拉斯正则空间感知协作图。远程传感器。 2019,11, 29.https://doi.org/10.3390/rs11010029

AMA风格

蒋X,宋X,张Y,蒋J,高J,蔡Z。用于高光谱图像鉴别分析的拉普拉斯正则空间感知协作图。遥感. 2019; 11(1):29.https://doi.org/10.3390/rs11010029

芝加哥/图拉宾风格

姜新伟、宋欣、张永善、姜俊军、高俊斌和蔡志华。2019.“用于高光谱图像鉴别分析的拉普拉斯正则空间感知协作图”遥感11,编号1:29。https://doi.org/10.3390/rs11010029

请注意,从2016年第一期开始,该杂志使用文章编号而不是页码。请参阅更多详细信息在这里.

文章指标

返回页首顶部