杂志的下一篇文章
V2X通信用吸收壁和组合滤波器减少多输入多输出天线的互耦
期刊上的上一篇文章
用椭圆偏振光谱法原位监测氧化锌表面的适配蛋白结合
 
 
订购文章重印
字体类型:
宋体 佐治亚州 宋体,Verdana
字体大小:
澳大利亚 澳大利亚 澳大利亚
行距:
列宽:
背景:
第条

基于空间插值的视觉注意区域自适应分辨率增强

1
中国科学院杭州高等研究院,中国杭州310024
2
中国科学院上海技术物理研究所空间有源光电子技术重点实验室,上海200083
中国科学院大学,北京100049
*
应向其发送信件的作者。
传感器 2023,23(14), 6354;https://doi.org/10.3390/s23146354
收到的提交文件:2023年5月8日/修订日期:2023年6月26日/接受日期:2023年7月10日/发布时间:2023年7月13日
(本条属于本节传感和成像)

摘要

:
分辨率增强对人类视觉至关重要。然而,它可以是显示管道中的资源消耗。因此,有必要开发一种专门针对视觉注意区域的轻量级分辨率改进算法。本文提出了一种基于空间插值的算法来提高视觉注意区域的分辨率。提出了一种由近红外摄像机和事件摄像机组成的视线跟踪系统,用于获取三维视线矢量和眼球运动轨迹。其次,通过凝视向量获得观察坐标,通过敏感视场角定义视觉注意区域。然后,在视觉注意区域进行基于插值的自适应空间分辨率增强和对比度增强调整。最后,从定性和定量两个维度验证了该方法的可行性。实验结果表明,该方法可以显著改善视觉效果。

1.简介

超分辨率是一种通过特定方法将低分辨率图像转换为高分辨率图像的图像处理技术[1,2,,4]. 插值算法是一种传统的超分辨率重建方法[5]. 它对低分辨率图像进行重采样,提取有用信息来重建图像,达到放大图像并获得较高分辨率的目的。它可以有效地提高图像的质量和细节。在增强现实(AR)和虚拟现实(VR)应用中,高分辨率对于改善用户的视觉体验尤为重要[6,7,8,9]. 然而,现有的许多AR/VR设备受到硬件条件的限制,因此图像质量和分辨率无法满足用户的视觉感官需求。因此,迫切需要开发轻量级、硬件化的超分辨率技术来解决这个问题。
最近一些关于超分辨率重建的研究是基于深度学习方法的。VDSR公司[10]、LapSRN[11]、SR-LUT[12]以及其他深度学习算法都取得了良好的效果。然而,基于深度学习的超分辨率算法的计算成本和GPU内存使用率非常高,很难通过硬件部署在AR/VR等移动设备上。
在AR/VR系统中,视觉-注意力-区域定向超分辨率考虑了敏感视野的特性[13]. 在使用AR/VR设备时,用户的视线通常集中在图像中的某个区域,即所谓的“视觉注意区域”。在视觉注意区域执行超分辨率算法[14,15,16,17]能够满足客户的愿景期望。为了实现这个目标,用户的凝视和当前注视点的位置可以通过眼球追踪系统来确定。获取注释信息的常用传感器是红外摄像机和事件摄像机。本文的系统采用多传感器融合。红外摄像机和事件摄像机用于获取注释信息和眼动信息,它们构成了眼睛跟踪系统,将捕获的注释信息反馈给显示器,以确定凝视区域。然后,将基于空间的插值和对比度增强算法应用于视觉注意区域。在局部区域执行超分辨率可以减少计算并节省资源,同时实现更好的视觉效果。
本文的主要贡献如下:
(1)
提出了一种基于传统插值算法的自适应空间分辨率改进算法。该算法取得了较好的性能,减少了计算量。
(2)
进行对比度增强和锐化,以进一步改善过分割后图像的视觉效果。
(3)
将超分辨率算法与眼动信息相结合,提高了视觉注意区域的分辨率,改善了人机交互的视觉体验。
(4)
该算法采用非深度学习方法,计算成本低,可以在硬件上实现。
本文的其余部分组织如下。第二部分介绍了研究的背景和动机。第三部分详细介绍了超分辨率算法、对比度增强算法、眼动和注释信息获取的过程。第四部分列出了实验结果并验证了算法的有效性。最后,第五部分给出了本研究的结论和未来的工作。

2.相关工作和动机

AR和VR技术是技术领域最广泛讨论和研究的领域之一。他们的应用涵盖了许多领域,包括游戏、医疗、制造、娱乐等。然而,AR/VR系统面临的一个挑战是需要能够提供真实详细体验的高分辨率显示器。AR/VR中的图像处理和显示技术至关重要,因为它们直接影响用户对虚拟场景的感知。
超分辨率重建主要分为三类:基于重建的方法、基于插值的方法和基于学习的方法。插值算法可以分为两类:基于空间的插值和基于频率的插值。传统的基于空间的插值算法包括双线性插值[18],双三次插值[19],和最近邻插值[20]. 常见的基于频率的插值算法包括基于小波的插值[21]和基于局部线性嵌入的插值[22]. 插值[23]是一种常用的超分辨率算法,可以有效地提高图像的质量和细节。插值算法的优点是实现简单,计算复杂度低。然而,它们可能会引入噪声、模糊图像细节、改变图像的颜色和对比度,从而导致图像失真[24]. 为了解决这些问题,研究人员提出了改进的插值算法,如双线性插值的改进算法[25],可以有效降低噪声,提高图像质量和细节。基于重建的方法需要先验信息来约束重建过程。在处理放大系数较大的图像任务时,由于缺乏先验信息,算法的性能会变差。Dong等人[26]提出了第一种利用卷积神经网络(CNN)方法重建HR图像的模型,其结果优于一些传统方法。Simonyan K等人[10]用于超分辨率的超深卷积网络;虽然结果令人满意,但其网络层次太深。Jo Y等人[12]提出了使用查找表的超分辨率;这是一种快速的超分辨率方法,但效果并不明显。
面向视觉注意力区域的超分辨率算法可以减少计算量,降低计算复杂度。为了实现视觉-注意力-区域定向的超分辨率,需要一个追踪眼睛的系统。视线追踪系统包括一个活动摄像机[27,28]和红外摄像机。事件摄像机用于获取眼球运动信息,红外摄像机用于获取注视点。由于只需要对用户感兴趣的区域进行超分辨率处理,因此节省了计算资源。视觉-注意力-区域导向的超分辨率渲染技术可以在未来的AR/VR系统中得到广泛应用。

3.系统和方法

整个系统由事件摄像机、红外摄像机和显示装置组成。整个目测系统放置在显示设备前面,应低于显示设备的高度,以避免显示设备被遮挡而造成干扰。实验系统的结构图如所示图1.
红外相机是一种用于获取视线追踪数据和注视点的设备。它具有成本低、体积小、使用方便等优点。其原理是通过红外光的反射来检测眼睛的位置和运动,然后推断眼睛的注视点。具体地说,红外相机发射红外光,红外光被眼睛反射,相机捕获反射光。然后,使用图像处理算法分析反射光的位置和运动。通过比较不同时间拍摄的眼睛位置,相机可以计算眼睛的轨迹和注视点。
如上所述,本文提出的方法主要用于提高注视区域的分辨率,实现令人目不暇接的交互作用[29]采用超分辨率技术。该算法的框架包括三个部分:凝视获取、超分辨率重建和对比度增强。超分辨率重建包括三个步骤:计算对比度、计算权重和上采样。整个过程可分为五个步骤,如下所示图2.
以下步骤图2具体如下:首先,通过传感器获得视觉注意区域,计算该区域的对比度,计算Lanczos插值上采样过程中的权重,进行上采样,最后改进对比度锐化。

3.1、。凝视向量采集

凝视向量是指从眼睛到观察点的向量,用于确定用户的凝视方向和注视位置。首先,在初始校准阶段,用户专注于预先确定的区域(例如图1)在屏幕上;此时,红外摄像机和事件摄像机用于捕捉凝视矢量。获得了用户坐标系中由眼球跟踪器设备获得的注视向量与显示平面的注视向量之间的变换矩阵。其次,眼球追踪装置将对每个注视向量进行相应的矩阵变换,以获得唯一的显示注视向量。凝视向量使用以下公式计算:
v(v) z(z) e(电子) = 第页 (f) x个 t吨 o个 n个 负极 第页 e(电子) e(电子)
哪里 v(v) z(z) e(电子) 表示凝视向量, 第页 (f) x个 t吨 o个 n个 表示固定点的坐标 第页 e(电子) e(电子) .表示眼睛的坐标。凝视向量被归一化,该向量的方向就是凝视方向。投影视线向量后,获得显示坐标系中的二维坐标值,即视线坐标,表示为用户在眼睛交互过程中注视的点。

3.2. 自适应空间分辨率增强模块

本文使用的超分辨率重建算法使用了一个具有12个核心像素的4×4滤波器,并呈现出椭圆形。最终的滤波核是使用双线性插值迭代生成的。核心思想是使用类Lancozs函数进行上采样。Lanczos函数本质上是一个可用于重采样算法的sinc函数,理论上它是一个最优重构滤波窗函数。此外,它的长度和窗口是自适应的,并且具有良好的抗锯齿特性。因此,我们将局部自适应类椭圆Lanczos滤波器引入到我们的空间分辨率增强算法中,并分别在水平和垂直方向应用它[30].
我们简化了目标分辨率大小矩阵上的每个点,计算了映射到低分辨率(LR)图像的坐标,并获得了坐标附近的像素和纹理信息,用于计算纹理信息和重采样。通过四舍五入坐标值P获得的计算出的LR图像坐标像素点被存储为整数和小数部分。p+(1,−1)、p+(0,1)、p+(2,1)和p+(1,3)的坐标分别表示为Q0、Q1、Q2和Q3。每个像素的坐标关系如所示图3.
边缘检测算法[31,32]通常计算每个像素的梯度幅度和方向,并通过比较梯度幅度和阈值来确定它是否是边缘点。二维方向梯度向量,目录,表示相应方向的梯度值[33]. 计算每个像素的水平和垂直梯度值,并获得二维梯度向量。矢量的大小和方向可以用来表示像素的边缘特征。长度值,伦恩,表示梯度向量的大小或强度。梯度幅度表示图像中每个像素的局部变化或灰度斜率,较大的幅度表示更剧烈的变化,通常与边缘或角特征相关。如果梯度幅度超过预定义的阈值,则将其视为边缘点;否则,它被认为是一个非边缘点。二维梯度向量,目录,伦恩,可以初始化。计算每个像素亮度值的公式为:
u个 n个 n个 c(c) e(电子) = 0.5 R(右) + 0.5 B类 + G公司
哪里R(右),G公司B类分别是像素的不同通道的值。边缘通常由亮度变化较大的像素组成。以Qi坐标和像素亮度为输入,使用双线性插值迭代累加权重w。Lancoz类插值函数所需的参数是基于四个点的位置计算的。水平和垂直梯度大小和向量分别计算,表示为lx(勒克斯),dx公司第页,第y天分别是。lx(勒克斯)第页乘以权重值w,并与梯度幅值相加,伦恩,而每个方向上的梯度值乘以w并添加到水平和垂直方向的梯度向量。的梯度值和长度值目录对每个像素进行迭代计算,并根据w对上述结果进行加权和求和,以获得最终的梯度向量和长度。
边缘和非边缘区域采用不同的上采样方法。对于非边缘区域,使用加权平均来计算和处理每个点的权重值。对于边缘区域,加权平均会导致运动模糊,此时需要进行高通滤波。
使用类Lanczos函数对输入图像对应的每个采样点进行插值。连续模拟信号Lanczos4函数表示为:
L(左) x个 = 4 π x个 π x个 4 π 2 x个 2
将类Lanczos函数的连续模拟信号离散化,并用四阶多项式拟合。函数的形状由控制变量的范围控制 ω .拟合函数为:
        L(左) X(X) = 25 32 x个 4 负极 25 16 x个 2 + 1 16 ω x个 2 负极 1 2
多项式中四阶项的系数用于控制采样函数的边缘特征。通过获取像素计算边缘特征以及其在水平和垂直方向上的相邻像素,并且所得特征值表示为:
E类 = E类 X(X) 2 + E类 Y(Y) 2
  E类 X(X) = x个 负极 1 , 负极 x个 + 1 , 最大值 x个 负极 1 , 负极 x个 , , x个 + 1 , 负极 x个 ,
      E类 Y(Y) = X(X) , 负极 1 负极 x个 , + 1 最大值 x个 , 负极 1 负极 X(X) , , x个 , + 1 负极 X(X) ,
边缘特征E类为每个像素计算以及其在水平和垂直方向上的相邻像素。然后使用以下方法将特征标准化为[0,1]:
E类 d日 e(电子) = E类 2 2
权重ω与边缘特征之间的线性关系边缘成立为:
ω = 1 2 负极 1 4 E类 d日 e(电子)
边缘特征E类和重量ω计算卷积核中四个交叉形状区域的每一个,并且ω是相对于坐标位置的双线性插值。产生的结果ω然后用于在相应的采样点处的空间上采样。计算水平梯度和垂直梯度,并将其归一化为方向向量,如下所示:
d日 第页 = c(c) o个 α , n个 α
确定灰度值变化最快的方向,并相应地旋转采样点处的梯度。计算旋转后的各向异性长度,并应用坐标变换(x·cosα+y·sinα,−x·sin al+y·cos a)以适应不同角度的边缘。计算旋转和缩放的RGB或RGBA像素值,并将其填充到目标矩阵模板中,以使用超分辨率算法生成超分辨率图像。

3.3. 对比度增强

首先,将高斯滤波器应用于超分辨率算法生成的图像,以平滑高频噪声并进行颜色空间转换[32]. 然后,使用3×3滤波器来计算每个像素周围区域的平均对比度,以确定像素所在区域的对比度水平。对于每个像素,计算其周围3×3像素的平均值和标准偏差,并根据平均值和基准偏差使用以下公式确定像素的对比度:
    c(c) o个 n个 t吨 第页 t吨 = 第页 x个 e(电子) v(v) u个 e(电子) 负极 第页 x个 e(电子) e(电子) n个 k个 × 第页 x个 e(电子) t吨 d日 + e(电子) 第页 o个 n个
在这里, 第页 x个 e(电子) v(v) u个 e(电子) 是像素值, 第页 x个 e(电子) e(电子) n个 是周围像素的平均值,std是周围像素标准偏差,k个是一个可以调整的参数,用于控制对比度的响应范围,而ε是一个常数,无限接近零,以避免被零除。
根据局部对比度值将图像划分为不同的区域。对于对比度低的区域,图像的清晰度会得到增强,以提高其清晰度和细节。计算公式如下:
x个 , = x个 , 负极 μ 1 + k个 σ τ 负极 1
该公式实现对比度增强,其中(x个,)表示像素的亮度值(x个,)在原始图像中,μσ表示当前区域的平均值和标准差,以及k个τ是调整参数。分子减去当前区域的平均值,分母1+k个(σ/τ−1)是根据不同区域的对比度进行调整的自适应增益。
高对比度区域保持图像的原始清晰度,避免过度对比度增强,从而放大噪声并产生伪影。最终图像中每个像素的权重由其局部对比度值确定。原始图像使用加权平均值与局部对比度增强图像混合,保留原始图像的细节和颜色,同时提高清晰度和对比度。锐度系数α可以定制以实现所需的锐化程度。锐度α在[0,1]范围内。输出图像如下所示:
      O(运行) u个 t吨 第页 u个 t吨 = 1 负极 α × S公司 + α × O(运行)
在这里,是锐化的图像和氧指数是原始图像。什么时候?α为1时,输出图像与原始图像相同;什么时候α为0,则输出图像为锐化图像。

3.4。评价指标

我们使用峰值信噪比(PSNR)和结构相似性(SSIM)来评估结果。PSNR[34]计算如下:
        S公司 N个 R(右) = 10 o个 10 M(M) A类 X(X) 2 M(M) S公司 E类
      M(M) S公司 E类 x个 , = 1 H(H) × W公司 = 1 H(H) J型 = 1 W公司 X(X) , j个 负极 Y(Y) , j个 2
哪里 M(M) A类 X(X) 是图像中像素值的最大可能值,通常为255;MSE公司是均方误差;H(H)W公司表示给定图像的高度和宽度;X(X)(,j个)和Y(Y)(,j个)表示与真实高分辨率图像和生成的超分辨率图像相对应的像素大小。SSIM公司[35]值为:
S公司 S公司 M(M) ( x个 , ) = ( 2 μ x个 μ + C类 1 ) ( 2 σ x个 + C类 2 ) ( μ x个 2 + μ 2 + C类 1 ) ( σ x个 2 + σ 2 + C类 2 )
哪里x个表示原始图像和处理后的图像, μ x个 μ 表示的平均值x个分别为, σ x个 2 σ 2 表示的方差x个分别为, σ x个 表示的方差x个 C类 1 C类 2 是两个常数,用于避免无分母0的情况。
平均意见得分(MOS)[36]是在体验质量和电信工程领域中使用的一种度量,代表刺激或系统的整体质量。它是受试者对系统质量表现的意见所指定的所有单个“预定义尺度上的值”的算术平均值。此类评级通常是在主观质量评估测试中收集的。测试人员根据他们对本文测试集的主观印象进行评分。

4.实验与分析

本部分包括三个部分:第一部分描述了实验系统的设计,第二部分验证了超分辨率算法的有效性,第三部分模拟并实现了跟踪眼球的交互式超分辨率技术。

4.1. 超分辨率算法的评估

为了验证所提超分辨率算法的有效性和可靠性,分别进行了定量和定性验证。从定量的角度来看,我们的超分辨率算法采用了两个评价指标:峰值信号噪声(PSNR)和结果相似性(SSIM)。根据双三次方法对数据集中的高分辨率原始图像(HR)进行降采样,并分别根据0.5和0.25系数对水平和垂直方向进行降采样以获得相应的低分辨率图像数据集(LR)。根据我们的上采样超分辨率算法重建图像,以获得相应的超分辨率(SR)图像。使用上述评价指标对超分辨率图像和超分辨率算法后的原始高分辨率图像进行评价。在采样到相同的空间分辨率后,使用双三次、最近和双线性等传统超分辨率算法计算这两组指标。同时,基于深度学习的超分辨率算法,如VDSR[10],用于以与对照组相同的倍数提高下采样图像的分辨率,以计算两组指标。通过对数据集中各组指标进行平均,得出最终PSNR和SSIM。在×2超分辨率重建过程中,所提算法和其他算法的PSNR和SSIM如所示表1.
在×4超分辨率重建过程中,所提算法和其他算法的PSNR和SSIM如所示表2.
根据中的结果表1表2与基于深度学习的算法相比,该算法在两个评价指标上都达到了与Vdsr相似的性能,并且释放了更多的计算负担。
从定性的角度来看,我们使用了主观平均分(MOS)评价指数。将多组超分辨率重建图像混合在一起,包括传统方法和深度学习方法重建的图像。在要求60名测试人员在每组中选择最具视觉效果的图像后,本文提出的超分辨率算法产生了更好的视觉效果。MOS指数如所示表3由此可见,本文提出的方法是有效和可靠的。
我们的超分辨率重建与其他超分辨率重建之间的视觉差异如所示图4.
结果表明,我们提出的超分辨率算法具有更好的视觉效果。通过使用我们的方法,可以在图4a.自然风光图4c、 e的纹理更清晰。中的详细信息图4b、 d更容易复制,例如中的汽车轮廓图4d.因此,可以得出结论,所提出的方法更加有效和可靠。

4.2. 眼球运动相互作用与固定区超分辨

4.2.1. 获得注视区域和眼球运动轨迹

传感器的应用场景是获取注释信息。红外相机捕捉眼睛的图像并提取瞳孔的位置和大小。根据瞳孔在图像中的位置,可以确定眼睛的方向矢量。通过记录眼睛的运动轨迹,可以得到眼睛的运动矢量。将眼睛的方向向量和运动向量结合起来,就得到了凝视向量。事件摄像机是一种新型的图像传感器,可以快速捕获和处理视觉事件信息。与以固定帧速率捕获和处理图像的传统相机不同,事件相机单独记录图像传感器中每个像素的光强度变化,并以非常高的时间分辨率生成事件数据。事件输出仅在像素值更改时生成。红色和绿色通常用于表示不同的事件类型或时间戳。颜色表示像素强度的变化。这种颜色编码有助于更好地捕捉眼球追踪数据。获得的红外凝视如所示图5,而活动摄像机捕捉到的眼球轨迹如所示图6。红色表示像素亮度增加,绿色表示像素亮度降低。

4.2.2. 提高固定区域的图像分辨率

在近眼显示系统中,面向视觉注意力区域的超分辨率非常重要。为了验证算法的鲁棒性,根据用户的注视习惯对椭圆形状注释轨迹进行了模拟。该模拟对凝视点中心区域的水平和垂直分辨率进行了采样,实现了×4的超分辨率效果,并执行对比度增强以突出显示边缘细节。对于外层,该模拟仅执行对比度增强,可以有效满足超分辨率和视觉效果的要求,同时降低计算成本,并将眼球运动跟踪过程中的延迟降至最低。人眼在视网膜中央5.2°区域具有高灵敏度。因此,我们只需要提高高灵敏度区域的分辨率。实验表明,与处理整个图像相比,基于视觉注意区域的超分辨率算法可以节省约80%的计算资源。
如所示图7,该模拟采用了一个用红点标记的椭圆凝视轨迹。
根据模拟的椭圆注释轨迹,确定待处理区域。
只要获得用户在人机交互过程中生成的眼动数据,就可以计算出凝视点在显示器上的运动轨迹。用实际的注视轨迹代替模拟的注视轨迹,该算法可以用于实际的人机交互系统。全局模拟结果如所示图8.
特定凝视点下的模拟效果如所示图9。红色矩形框围绕用户正在查看的固定点构建。该区域的这一部分进行了上采样以提高分辨率,同时进行了对比度自适应锐化。在红色框外,只有对比度自适应锐化在蓝色框内进行。蓝色框以外的区域表示原始图像。
上图表明,所提出的基于眼球追踪的眼动交互超分辨率算法是有效和可靠的。红色矩形中复杂建筑的边缘信息得到了很好的保存。与蓝色矩形框外相比,红色矩形框外和蓝色矩形框内的对比度显著提高。
将本文的插值算法与其他传统插值算法的运行时间进行了比较,实验结果如所示表4与其他传统算法相比,该算法所需时间稍长。然而,重建效果明显优于其他传统效果。我们使用的显卡是NVIDIA GeForce RTX4090;我们使用的CPU是第13代Intel(R)Core(TM)i9-13900K。
通过实验测试了全局执行算法和注释区域执行算法的用户满意度。实验结果如所示表5.

5.结论

分辨率增强对人类视觉很重要。在本文中,我们开发了一种用于视觉注意区域的轻量级分辨率增强算法。首先,提出了眼睛跟踪系统,以获取三维视线矢量和眼睛运动轨迹。其次,通过凝视向量获得观察坐标,通过敏感视场角定义视觉注意区域。然后,在视觉注意区域进行基于插值的自适应空间分辨率增强和对比度增强调整。最后,从定性和定量两个维度验证了该方法的可行性。实验结果表明,该方法可以显著改善视觉效果。实验表明,与处理整个图像相比,基于视觉注意区域的超分辨率算法可以节省约80%的计算资源。虽然所提出的眼睛跟踪交互式超分辨率算法成功地提高了基于凝视区域的分辨率,但在实时性能方面仍有改进的空间。未来,将使用眼球追踪系统获取的凝视和眼球追踪信息来实时测试这种眼球追踪交互式超分辨率算法的性能。该算法将部署在VR/AR设备中,以测试算法性能。

作者贡献

概念化,Z.Z.和X.H。;方法,Z.Z.和X.H。;软件,Z.Z。;验证、K.J.、Z.Z.和X.H。;形式分析,J.W。;调查,K.L。;资源,K.L。;数据管理,K.J。;书面原稿编制,Z.Z。;写作与编辑,Z.Z。;可视化,C.L。;监管,S.L。;项目管理,X.H。;资金收购,X.H.所有作者均已阅读并同意手稿的出版版本。

基金

本研究得到浙江省博士后特惠基金(ZJ2022116)和杭州高等研究院自主项目(B02006C019014)的资助。

机构审查委员会声明

不适用。

知情同意书

不适用。

数据可用性声明

不适用。

利益冲突

作者声明没有利益冲突。

工具书类

  1. 田,J。;Ma,K.K.超分辨率成像调查。信号图像视频处理。 2011,5,329–342。[谷歌学者] [交叉参考]
  2. 南卡罗来纳州帕克。;M.K.帕克。;Kang,M.G.超分辨率图像重建:技术概述。IEEE信号处理。美格。 2003,20, 21–36. [谷歌学者] [交叉参考] [绿色版本]
  3. 岳,L。;沈,H。;李,J。;袁,Q。;张,H。;Zhang,L.图像超分辨率:技术、应用和未来。信号处理。 2016,128, 389–408. [谷歌学者] [交叉参考]
  4. 萧,A。;王,Z。;Wang,L。;Ren,Y.通过卷积网络对“吉林一号”卫星视频图像进行超分辨率处理。传感器 2018,18, 1194. [谷歌学者] [交叉参考] [绿色版本]
  5. Siu,W.C。;Hung,K.W.图像插值和超分辨率综述。2012年12月3日至6日在美国加利福尼亚州好莱坞举行的2012年亚太信号与信息处理协会年度峰会和会议记录;第1-10页。[谷歌学者]
  6. 詹,T。;尹,K。;熊,J。;何,Z。;吴,S.-T.增强现实和虚拟现实展示:视角和挑战。缺乏耐心 2020,23,101397页。[谷歌学者] [交叉参考]
  7. 熊,J。;Xiang,E.L。;何,Z。;詹,T。;Wu,S.-T.增强现实和虚拟现实显示:新兴技术和未来展望。光科学。申请。 2021,10, 216. [谷歌学者] [交叉参考]
  8. Jensen,L。;Konradsen,F.《虚拟现实头戴式显示器在教育和培训中的使用综述》。教育。技术信息。 2018,23, 1515–1529. [谷歌学者] [交叉参考] [绿色版本]
  9. 马蒙,V。;弗吉尼亚州法拉利。;达马托,R。;康迪诺,S。;北卡罗来纳州卡特里。;Cutolo,F.《手动精密任务用头戴式投影仪:性能评估》。传感器 2023,23, 3494. [谷歌学者] [交叉参考]
  10. Simonyan,K。;用于大规模图像识别的极深卷积网络。arXiv公司 2014,arXiv:1409.1556。[谷歌学者]
  11. 赖,W.S。;Huang,J.-B。;阿胡加,N。;Yang,M.-H.深拉普拉斯金字塔网络,用于快速准确的超分辨率。2017年7月21日至26日在美国夏威夷火奴鲁鲁举行的IEEE计算机视觉和模式识别会议记录;第624-632页。[谷歌学者]
  12. Jo,Y。;Kim,S.J.使用查找表的实用单幅图像超分辨率。2021年6月20-25日,美国田纳西州纳什维尔,IEEE/CFF计算机视觉和模式识别会议记录;第691-700页。[谷歌学者]
  13. Banks,医学硕士。;阅读JC,A。;Allison,R.S。;Watt,S.J.立体视觉和人类视觉系统。SMPTE运动成像杂志。 2012,121, 24–43. [谷歌学者] [交叉参考] [绿色版本]
  14. 傅伟(Fu,W.)。;Wang,J。;卢,Y。;Wu,H。;Chai,X.基于模拟人工视觉下视觉注意力模型的图像处理策略。中国一辽七解杂止。医学仪器杂志。 2013,37, 199–202. [谷歌学者]
  15. Baek,J。;Dosher,文学学士。;Lu,Z.L.空间线索和视觉搜索中的视觉注意。视觉杂志。 2021,21, 1. [谷歌学者] [交叉参考]
  16. 华,Z。;李毅。;Li,J.基于改进视觉注意模型和区域生长的图像分割算法。2010年9月23日至25日,中国成都,2010年第六届无线通信网络和移动计算国际会议(WiCOM)会议记录;第1-4页。[谷歌学者]
  17. Kim,H。;杨,J。;Choi,M。;Lee,J。;Yoon,S。;Kim,Y。;基于眼睛跟踪的360 VR平铺视频中心凹渲染。第九届ACM多媒体系统会议记录,荷兰阿姆斯特丹,2018年6月12-15日;第484-486页。[谷歌学者]
  18. K.T.格里本。;Bailey,D.G.实时双线性插值的一种新方法。在诉讼程序中。DELTA 2004年。第二届IEEE电子设计、测试和应用国际研讨会,澳大利亚西澳州珀斯,2004年1月28日至30日;第126–131页。[谷歌学者]
  19. Dengwen,Z。一种边缘定向双三次插值算法。2010年10月16日至18日,中国烟台,2010年第三届国际图像和信号处理大会会议记录;第1186–1189页。[谷歌学者]
  20. 蒋,N。;Wang,L.使用最近邻插值进行量子图像缩放。量子信息过程。 2015,14, 1559–1571. [谷歌学者] [交叉参考]
  21. Nguyen,N。;Milanfar,P.超分辨率(小波超分辨率)的基于小波的插值-存储方法。电路系统。信号处理。 2000,19, 321–338. [谷歌学者] [交叉参考]
  22. 杨,X。;陈,Y。;岳,X。;马,C。;Yang,P.基于局部线性嵌入的插值神经网络在胰腺肿瘤分割中的应用。申请。因特尔。 2022,52, 8746–8756. [谷歌学者] [交叉参考]
  23. 张,L。;Wu,X.一种基于方向滤波和数据融合的边缘引导图像插值算法。IEEE传输。图像处理。 2006,15, 2226–2238. [谷歌学者] [交叉参考] [绿色版本]
  24. 刘,D。;李毅。;林,J。;李,H。;Wu,F.基于深度学习的视频编码:回顾和案例研究。ACM计算。Surv公司。CSUR公司 2020,53, 1–35. [谷歌学者] [交叉参考] [绿色版本]
  25. Sa,Y.改进的双线性插值方法用于图像快速处理。《2014年第七届智能计算技术与自动化国际会议论文集》,中国长沙,2014年10月25日至26日;第308-311页。[谷歌学者]
  26. Dong,C。;罗伊,C.C。;He,K。;Tang,X.使用深度卷积网络的图像超分辨率。IEEE传输。模式分析。机器。因特尔。 2015,38, 295–307. [谷歌学者] [交叉参考] [绿色版本]
  27. 舍林克,C。;Rebecq,H。;Gehrig,D。;巴恩斯,N。;Mahony,R。;Scaramuzza,D.用活动摄像机快速重建图像。2020年3月1日至5日在美国科罗拉多州雪马村举行的IEEE/CVF计算机视觉应用冬季会议记录;第156-163页。[谷歌学者]
  28. Rebecq,H。;兰夫特尔,R。;科尔顿,V。;Scaramuzza,D.配有活动摄像机的高速高动态范围视频。IEEE传输。模式分析。机器。因特尔。 2019,43, 1964–1980. [谷歌学者] [交叉参考] [绿色版本]
  29. Majaranta,P。;Bulling,A.眼睛跟踪和基于眼睛的人机交互。高级生理学。计算。 2014,189,39–65。[谷歌学者]
  30. Madhukar,B.N。;Narendra,R.Lanczos重新采样,用于遥感图像的数字处理。超大规模集成电路、通信、先进设备、信号和系统及网络国际会议记录(VCASAN-2013)施普林格:印度新德里,2013年;第403-411页。[谷歌学者]
  31. 库马尔,M。;Saxena,R.各种边缘检测的算法和技术:综述。信号图像处理。 2013,4, 65–75. [谷歌学者]
  32. Sun,R。;Lei,T。;陈,Q。;王,Z。;杜,X。;赵伟。;Nandi,A.K.图像边缘检测综述。前面。信号处理。 2022,2, 826967. [谷歌学者] [交叉参考]
  33. Nezhadarya,E。;Ward R,K。彩色图像中鲁棒梯度向量估计的新方案。IEEE传输。图像处理。 2011,20, 2211–2220. [谷歌学者] [交叉参考] [公共医学]
  34. 美国萨拉。;阿克特,M。;Uddin,M.S.通过FSIM、SSIM、MSE和PSNR进行图像质量评估——一项比较研究。J.计算。Commun公司。 2019,7, 8–18. [谷歌学者] [交叉参考] [绿色版本]
  35. Setiadi,D.R.I.M.PSNR与SSIM:图像隐写术的不可感知性质量评估。Multimed公司。工具应用程序。 2021,80, 8423–8444. [谷歌学者] [交叉参考]
  36. R.C.斯特雷伊。;温克勒,S。;重温Hands,D.S.平均意见得分(MOS):方法和应用,局限性和替代性。Multimed公司。系统。 2016,22, 213–227. [谷歌学者] [交叉参考]
图1。实验装置的结构图。
图1。实验装置的结构图。
传感器23 06354 g001
图2。超分辨率算法的流程图。
图2。超分辨率算法的流程图。
传感器23 06354 g002
图3。每个像素的坐标关系。
图3。每个像素的坐标关系。
传感器23 06354 g003
图4。超分辨率算法对单个图像的影响。
图4。超分辨率算法对单个图像的影响。
传感器23 06354 g004a传感器23 06354 g004b传感器23 06354 g004c
图5。红外摄像机拍摄的注视点图像。
图5。红外摄像机拍摄的注视点图像。
传感器23 06354 g005
图6。活动摄像机捕捉眼球运动的结果。
图6。活动摄像机捕捉眼球运动的结果。
传感器23 06354 g006
图7。模拟中使用的椭圆凝视轨迹。
图7。模拟中使用的椭圆凝视轨迹。
传感器23 06354 g007
图8。视觉效果经过视觉-注意力-区域定向超分辨率处理。分辨率和对比度增强在红色矩形框中进行,对比度增强则在红色矩形外的蓝色矩形框中执行。
图8。视觉效果经过视觉-注意力-区域定向超分辨率处理。分辨率和对比度增强在红色矩形框中进行,对比度增强则在红色矩形外的蓝色矩形框中执行。
传感器23 06354 g008
图9。视觉注意力定向超分辨率的详细效果。
图9。视觉注意力定向超分辨率的详细效果。
传感器23 06354 g009
表1。不同算法的PSNR和SSIM指数值(×2 SR)。
表1。不同算法的PSNR和SSIM指数值(×2 SR)。
方法PNSR平均值SSIM平均值
双立方33.960.9763
最近的31.190.9570
双线性32.400.9655
Vdsr公司35.330.9799
我们的35.020.9793
表2。不同算法的PSNR和SSIM指数值(×4 SR)。
表2。不同算法的PSNR和SSIM指数值(×4 SR)。
方法PNSR平均值SSIM平均值
双立方27.980.8964
最近的26.480.8635
双线性27.250.8825
Vdsr公司29.150.9160
我们的28.870.9034
表3。不同测试用例的MOS。
表3。不同测试用例的MOS。
金属氧化物半导体我们的方法其他方法
建筑物3921
海洋3624
代码3426
游戏4119
4020
道路3822
表4。不同测试用例的运行时间。
表4。不同测试用例的运行时间。
方法运行时间
双立方42.98微秒
最近的23.75微秒
双线性31.74微秒
我们的61.44微秒
表5。不同加工区域的MOS。
表5。MOS用于不同的处理区域。
金属氧化物半导体全球的视觉注意区
1842
免责声明/出版商注释:所有出版物中包含的声明、意见和数据仅为个人作者和贡献者的声明、观点和数据,而非MDPI和/或编辑的声明、看法和数据。MDPI和/或编辑对内容中提及的任何想法、方法、说明或产品造成的任何人员或财产伤害不承担任何责任。

分享和引用

MDPI和ACS样式

朱,Z。;何,X。;李,C。;刘,S。;蒋,K。;李凯。;王,J。基于空间插值的视觉注意区域自适应分辨率增强。传感器 2023,23, 6354.https://doi.org/10.3390/s23146354

AMA风格

朱Z,何X,李C,刘S,蒋K,李K,王J。基于空间插值的视觉注意区域自适应分辨率增强。传感器. 2023; 23(14):6354.https://doi.org/10.3390/s23146354

芝加哥/图拉宾风格

朱志轩、新和、李春来、刘世杰、姜昆、李康和王建宇。2023.“基于空间插值的视觉注意区域自适应分辨率增强”传感器第23页,第14页:6354。https://doi.org/10.3390/s23146354

请注意,从2016年第一期开始,该杂志使用文章编号而不是页码。请参阅更多详细信息在这里.

文章指标

返回页首顶部