当前位置:首页 期刊杂志

基于形状自适应非局部回归和非局部梯度正则的深度图像超分辨

时间:2024-05-04

张莹莹,任超,朱策*

基于形状自适应非局部回归和非局部梯度正则的深度图像超分辨

张莹莹1,任超2,朱策1*

(1.电子科技大学 信息与通信工程学院,成都 611731; 2.四川大学 电子信息学院,成都 610065)(*通信作者电子邮箱eczhu@uestc.edu.cn)

针对深度图像分辨率低、深度不连续性模糊问题,提出一种基于形状自适应非局部回归和非局部梯度正则的深度图像超分辨方法。为了探究深度图像非局部相似块之间的相关性,提出了形状自适应的非局部回归。该方法对每个像素点提取其形状自适应块,并根据形状自适应块构建目标像素的相似像素组;然后针对相似像素组中的每个像素,结合同场景的高分辨率彩色图像获得非局部权重,从而构建非局部回归先验。为了保持深度图像的边缘信息,对图像梯度的非局部性进行探究。不同于总变分(TV)正则化对所有像素点梯度的零均值拉普拉斯分布假设,该方法利用深度图像梯度的非局部相似性,用非局部块估计特定像素点的梯度均值,并用学习到的均值来拟合各像素点的梯度分布。实验结果表明,相较于基于边缘不一致性评价模型(EIEM),所提方法在Middlebury数据集上的2倍和4倍上采样率的平均绝对值差(MAD)分别下降了41.1%和40.8%。

深度图像;超分辨;形状自适应;非局部自相似;非局部梯度

0 引言

近年来,3D成像领域的迅速发展促进了3D扫描设备的出现,如飞行时间(Time Of Flight, TOF)摄像机。3D扫描设备可以容易地实时获得场景的深度信息,该信息作为辅助数据,在三维重建、虚拟现实[1-2]等实际应用中发挥着重要作用。然而,与相应的彩色图像相比,深度传感器获取的深度图像的质量比较低。例如,TOF相机获取的深度图的分辨率低,且易受噪声影响。然而,许多实际应用需要精确的深度信息,有限的分辨率和低质量的图像极大地限制了深度图像的实际应用。因此,获取高分辨率的深度图像已成为近年来的一个重要研究课题。

为了提升深度数据的应用,许多深度图采用超分辨率方法被提出。现有超分辨方法可以分为:1)非彩色图像引导的方法,此类方法从观测的深度图像重建目标图像,由于没有彩色图像的辅助,可用信息有限,因此此类方法往往具有模糊伪影或锯齿伪影;2)彩色图像引导的方法,此类方法在深度图与其相关的彩色图像之间具有结构一致性的前提下进行,并利用高分辨率彩色图像指导低分辨率深度图的重建。

彩色图像引导的方法得到了广泛的研究,因为通过深度相机传感器通常很容易获得一对彩色图像和深度图像。彩色图像引导的方法可分为:基于滤波的方法[3-5]、基于学习的方法[6-9]和基于重建的方法[10-17]。基于滤波的方法,通过对局部深度图像像素的加权平均得到高分辨率深度图;基于滤波的方法计算复杂度较低,但易受噪声影响,且重建图像边缘可能会过于模糊。基于学习的方法通过建立高分辨率块和与其对应的低分辨率块之间的映射关系实现图像的恢复。基于学习的方法又可分为基于字典学习的方法[6-7]和基于深度卷积神经网络[8-9]。基于字典学习的方法通过对图像结构的学习,能够很好地表达图像的深度特征。然而,所有这些方法都是以块为单位进行图像恢复,会引入不良的伪影。基于深度卷积神经网络的方法的良好性能通常得益于大数据训练,因此,需要一个大的训练数据集。

基于重建的方法通过利用先验信息对解进行正则化约束来求得重建图像。基于重建的方法目前已得到大量研究。非局部自相似性是深度图像的重要特性,它探究了具有相似模式的块之间的相关性,作为先验被广泛应用。为了探究深度图像的非局部特性,Dong等[13]用低秩约束图像的非局部特性。Zhang等[14]、Jiang等[15]均提出了基于稀疏系数的自回归模型,为了更好探究块之间的相关性,对于每一个目标块采用相似块构建字典,并将目标块变换到字典域,在变换域内应用自回归模型。Zhang等[16]提出了非局部总广义变分的深度图像重建方法,该方法约束了目标像素点与其非局部相似点之间的平滑性。Park等[17]将超分辨问题转化为最小二乘优化问题,结合了基于边缘加权的非局部均值正则化来加强深度图像细节生成。Ren等[18]提出了调整的非局部回归先验来重建图像,该方法充分探究了图像的非局部性。Liu等[19]提出了非局部梯度方法来探究图像梯度间的自相似性。非局部约束项使得具有相同结构的像素可以相互增强,因此有利于图像细节信息的保持。

基于非局部先验的有效性,本文主要对深度图像的非局部自相似性进行研究。在上述基于非局部先验的方法中,非局部回归[18]和非局部梯度方法[19]是两个具有代表性的方法。基于非局部回归的图像重建方法利用非局部相似像素对当前像素的线性逼近约束,可以很好地恢复图像细节;但基于非局部回归的方法本质上是基于块级的处理,因此可能产生一定的人工痕迹。基于非局部梯度的图像重建方法利用非局部相似梯度来估计目标点的梯度均值,并用以拟合目标点的分布。该方法对非局部梯度的总能量进行约束,可较好地抑制虚假纹理等人工痕迹,且具有不错的边缘保持能力;但是由于其梯度能量最小化的本质,重建图像会产生过平滑效应,难以恢复细节信息。

为了抑制图像伪影并更好地恢复图像细节,本文提出了一种联合形状自适应非局部回归和非局部梯度正则的深度图像超分辨方法。该方法结合了非局部回归的细节恢复特性以及非局部梯度的虚假纹理抑制特性,可以对深度图像进行更好的恢复。本文主要从两方面来探究深度图像的非局部特性,并利用其作为先验约束图像重建:

1)为了充分利用深度图的非局部自相似性,本文引入了调整的非局部回归先验[18],它可以充分利用深度图的非局部信息。然而,文献[18]在构建相似像素组时并未考虑图像结构,因此构建的相似像素组可能包含不相关的像素点;特别是当目标块包含较大的结构变化时,估计结果将变得模糊。为了解决这个问题,本文提出了形状自适应的非局部回归先验。该方法对每个像素点提取其形状自适应块,然后根据形状自适应块构建目标像素的相似像素组。基于形状自适应块构建的相似像素组可以避免不相关像素的影响,抑制模糊伪影。最后用彩色图像引导相似像素点的权重计算,从而构建非局部回归先验。

2)为进一步探究深度图像梯度的非局部自相似性,本文引入非局部梯度正则[19]。在文献[19]中,目标像素点的梯度均值通过相似像素点的梯度直接相加平均得到,并未考虑相似像素点的梯度与目标像素点的梯度之间的相似度。为了解决这个问题,本文提出彩色图像引导自适应权重的非局部梯度正则,在计算梯度均值时考虑了相似像素点的梯度与目标像素点的梯度之间的相似度问题,并根据彩色图像与深度图像边缘结构一致性假设,利用彩色图像作为引导计算相似像素点的梯度与目标像素点的梯度之间的相似度。即先计算图像水平垂直方向梯度,利用图像的非局部自相似性寻找以当前点为中心的图像块的相似块,再根据彩色图像的引导作用估计特定像素点的图像梯度均值信息。

1 本文方法

根据深度图像的成像过程,低分辨率输入和高分辨率深度图像之间的关系可以表示为

1.1 自适应邻域块的非局部先验

调整的非局部回归[18]探究了图像的非局部自相关性,由于它采用了逐块策略,即每一个目标块由其相似块加权平均得到,因此每一个目标像素由其相似像素以及其相似块对应位置的像素加权平均得到。此策略深入探究了深度图的非局部自相似性,充分利用了深度图的非局部信息;但当目标像素位于边缘区域时,由于构建的相似像素组中存在不相关像素,估计值会不准确。为了解决这个问题,本文提出了形状自适应的非局部回归先验。为了避免不相关像素的影响,使用结构自适应块代替固定尺寸的块用于相似块组的构建。由于块的形状与图像结构相适应,所以可以避免不相关像素对重建像素的影响,因此可以抑制边缘平滑。

为了有效地提取结构自适应块,使用了各向异性局部多项式逼近-置信区间交集(Local Polynomial Aapproximation-Intersection of Confidence Intervals,LPA-ICI)技术[20]。LPA-ICI技术是一种基于局部形状自适应的各向异性邻域估计方法,它可以自适应地为图像中的每个像素点构建各向异性邻域结构。该方法通过比较每个像素点在不同尺度方向的估计值,然后利用LPA-ICI技术为图像中的每个点自适应地选择一组方向自适应尺度,相应的自适应尺度核的支集长度以逐点自适应的方式确定该点的邻域。因此,该估计器是各向异性的,并且其支集的形状与图像中存在的结构相适应。

图1 各向异性邻域

Fig. 1 Anisotropic neighborhood

图2 形状自适应相似块组和相似像素点组

图3 像素位置说明

Fig. 3 Description of pixel position

利用更新的像素,可以计算像素点组中每个像素的相似度权重:

1.2 非局部梯度

在深度图像中边缘是深度图像的主要结构,深度图像重建的重点在于建立清晰的边缘结构。总变分先验假设图像梯度具有稀疏性,它在保存图像的边缘结构方面非常有效。然而,从概率角度来看,该模型假设图像中所有点的梯度都服从零均值分布,当考虑全局图像统计时,该模型是合理的,但是从局部的角度来看,自然图像的统计数据可能不是平稳的,在平滑区域此假设是成立的,但在边缘区域梯度的零均值假设也可能是无效的。为了更好地模拟图像的梯度分布,文献[20]中提出了非局部梯度稀疏正则并在图像去噪方面取得了比较好的效果。本文为更好地保持图像的边缘结构,也采用文献[20]提出的非局部梯度稀疏正则来拟合图像的梯度,根据图像统计的非平稳性,针对不同像素,应用自适应的分布模型,并在此基础上提出彩色图像引导的非局部梯度先验。

由此模型可以看出,梯度均值影响着此正则的有效性,因此对每一个像素点求解精确的梯度是重要的。根据假设,深度图像与彩色图像存在相似的不连续性,因此本文应用彩色图像作为辅助信息来引自适应权重的导梯度均值估计。目标分布的期望值定义为:

2 本文模型求解

将形状自适应非局部回归先验和非局部梯度先验联合起来,可以得到如下深度图像超分辨模型:

然后,将上式转化为非约束问题:

根据分裂Bregman迭代算法,迭代求解下列优化问题:

此为凸二次优化问题,其解为:

此为1-范数优化问题,可以用软阈值方法求解,则

通过迭代求解上述优化问题,可以得到最终重建的深度图像。本文提出算法具体步骤如下:

输入 低分辨率深度图像和降质矩阵。

输出 高分辨率深度图像。

1)初始化:双三次插值放大输入图像得到初始的高分辨率图像估计。

3) 更新相似像素点组权重矩阵。

4) 根据式(13)更新非局部梯度均值。

6) 根据式(20)更新估计图像。

9) end for

10) end for

11) return 重建深度图像。

3 实验分析

利用Middlebury数据集[23]评估本文方法,并与以下方法进行了比较:1)基于滤波器的方法,即引导滤波(Guided Filtering, GF)[3]、共同结构联合滤波(Mutual-Structure Joint Filtering, MSJF)[4]、静态和动态引导滤波(Static and Dynamic guided Filtering, SDF)[5];2)基于重建的方法,即基于马尔可夫随机场(Markov Random Field, MRF)的方法[10]、彩色引导回归(color-guided AutoRegression, AR)[12]、各向异性全广义变差(anisotropic Total Generalized Variation , TGV)[11]和基于边缘不一致性评价模型(Edge Inconsistency Evaluation Model,EIEM)[24]。

3.1 参数设置

3.2 Middlebury数据集

将Middlebury数据库中的6幅图像分为包括Art、Book和Moebius的A数据集以及包括Reindeer、Laundry和Dolls的B数据集。为了生成低分辨率深度图,首先对深度图像进行高斯核模糊处理,然后降采样到所需的分辨率。测试了上采样率为2倍、4倍、8倍时的上采样性能。表1和表2给出了图像的MAD。从表中可以看出,在2倍和4倍采样率时,本文方法在6个测试图像上都获得了最低MAD;8倍采样率时,本文方法则在多数图像上获得了最低MAD。相比EIEM,本文方法在Middlebury数据集上的2倍和4倍采样率的MAD分别下降了41.1%和40.8%。

图4给出了图像Art和Reindeer图像(图为裁减的部分图像)4倍上采样的视觉比较结果。从图中可以看出:AR模型[12]重建结果的纹理复制伪影被适当抑制;但AR模型中深度项的权系数仅依赖于低分辨率输入的双三次插值,使得深度图像在边缘区域趋于模糊。MRF方法[10]重建的深度图像在大部分区域可以获得良好的质量;但在深度不连续性与彩色图像边缘不一致的区域,由于彩色图像纹理的影响引入了伪影。尽管GF方法[3]重建的深度图像可以得到比较低的MAD,但在深度图像边缘与彩色图像边缘不一致的地方依然会有伪影。TGV方法[11]没有考虑到彩色图像和深度图像之间不一致性,所以不能很好地抑制纹理复制伪影。在SDF[5]中,静态和动态滤波被用来消除不一致性,但在某些情况下失败了。MSJF[4]的结果是平滑的,因为该方法忽略了目标图像本身的统计先验。EIEM方法[24]可以在大多数区域获得良好的质量,但在深度不连续与彩色边缘无关的区域会引入伪影。综合表1、2和图4的结果可以看出,本文方法可以获得较低的AMD,并且可以提供视觉上一致的结果,说明使用两种非局部约束是有效的。

图4 Art和Reindeer图像4倍上采样结果比较

表1 数据集A上的MAD比较

表2 数据集B上的MAD比较

图5给出了图像Mobiues和Dolls(图为裁减的部分图像)8倍向上采样的视觉比较结果。对于Mobiues图像,SDF方法[5]和AR方法[12]可以得到一个很好的恢复,但是对于某些边缘结构还是不能很好处理,如SDF方法重建的图像尖角边缘会有缺失;GF方法[3]和MSJF方法[4]不能生成非常尖锐的边缘;TGV[11]的结果是沿边缘非常平滑,这说明普通的局部结构正则化不能有效地处理大的采样率;EIEM[24]可以恢复大多数细节,但依然会受彩色图像纹理的影响;本文方法恢复了清晰的图形边缘,与真实深度图像最接近。

3.3 模拟TOF降质的数据集

在模拟TOF降质的数据集上评估本文方法。首先下采样图像到目标大小的低分辨率图像,在低分辨率深度图像中加入标准差为5的高斯噪声来模拟TOF退化。表3和表4给出了在2倍、4倍和8倍采样率下各方法的MAD。表3和表4表明本文方法对大部分图像有效,可以得到较好结果。GF方法[3]和MRF方法[10]对噪声的鲁棒性不强,与无噪声情况相比,性能大大降低;TGV[11]在较低的采样率(即2倍、4倍)下工作良好,但对较大的采样因子(即8倍)不具有鲁棒性。

图6给出了Art和Laundry图像(图为裁减的部分图像)4倍上采样的视觉比较结果。由图可以看出:GF方法[3]的结果含有大量噪声;MRF方法[10]产生的图像边缘比较模糊;MSJF方法[4]对噪声也很敏感;SDF方法[5]可以产生更清晰的结果,但在Art图像的边缘有严重失真;虽然TGV[11]可以很好地抑制噪声,但它仍会受到纹理复制伪影的影响;AR模型[12]可以适当地抑制纹理复制伪影,但由于噪声影响其加权系数,边缘仍然会模糊;EIEM[24]可以抑制噪声并提供清晰的深度图,但在某些区域会产生模糊的伪影;而本文方法由于非局部约束具有很好的去噪效果,能在一定程度上抑制上采样过程中的噪声,并能有效去除纹理复制伪影,重建较好边缘。

图5 Mobiues和Dolls图像8倍上采样结果比较

图6 模拟TOF降质下laundry和Art 图像4倍上采样结果比较

表3 模拟TOF降质的数据集A上的MAD比较

表4 模拟TOF降质的数据集B上的MAD比较

3.4 正则项有效性

为了验证两种正则项结合的有效性,比较了本文方法仅采用形状自适应非局部回归(SA-NLR)和仅用非局部梯度约束(NLG)时的性能。表5和表6给出了在2倍、4倍和8倍采样率下的MAD,图7给出了Laundry的重建效果图。

从表5、表6和图7的结果可以得到以下结论:1)仅用非局部梯度约束方法建立的图像效果最差;2)形状自适应非局部回归方法建立的图像效果好于非局部梯度约束方法,这说明所建立的形状自适应非局部回归模型是有效的;3)本文方法得到了最好的重建效果,说明形状自适应非局部回归模型和非局部梯度约束的结合有助于提高超分辨率图像的质量。

表5 数据集A上正则项有效性比较(MAD)

表6 数据集B上正则项有效性比较(MAD)

图7 算法有效性比较

4 结语

为了提升深度图像分辨率,消除深度不连续性模糊问题,本文提出了基于形状自适应非局部回归和非局部梯度的深度图像重建方法。为了充分应用深度图像的非局部自相似性,本文从两个方面探究了深度图像的非局部特性:对于深度图像块之间的相关性,用非局部回归探究了深度图像块之间的相关性。本文用形状自适应块构建相似像素点组,由于块根据目标像素点的自适应邻域构建,所以构建的相似像素点组避免了与目标像素点不相关的像素点,然后用相似像素点组构建非局部回归。对于梯度块之间的相关性,用非局部梯度探究梯度块之间的相关性。本文对于每一个像素点,用其非局部块求其非局部均值,然后用求得的均值拟合像素点的分布,因此非局部梯度约束能自适应拟合像素点的梯度分布,更好地表征图像的梯度特征。实验结果表明本文方法在客观和主观评价上均优于对比方法,能更好地重建深度图像,保持边缘信息。

[1] NDJIKI-NYA P , KÖPPEL M, DOSHKOV D, et al. Depth image based rendering with advanced texture synthesis[C]// Proceedings of the 2010 IEEE International Conference on Multimedia and Expo. Piscataway: IEEE, 2010: 424-429.

[2] 李知菲,陈源. 基于联合双边滤波器的Kinect深度图像滤波算法[J]. 计算机应用, 2014, 34(8):2231-2234, 2242.(LI Z F, CHEN Y. Kinect depth image filtering based on joint bilateral filter[J]. Journal of Computer Applications, 2014, 34(8):2231-2234, 2242.)

[3] HE K M, SUN J, TANG X O. Guided image filtering[C]// Proceedings of the 2010 European Conference on Computer Vision, LNIP 6311. Berlin: Springer, 2010: 1-14.

[4] SHEN X Y, ZHOU C, XU L, et al. Mutual-structure for joint filtering[J]. International Journal of Computer Vision, 2017, 125(1/2/3):19-33.

[5] HAM B, CHO M, PONCE J. Robust image filtering using joint static and dynamic guidance[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015:4823-4831.

[6] WANG J, XU W, CAI J F, et al. Multi-direction dictionary learning based depth map super-resolution with autoregressive modeling[J]. IEEE Transactions on Multimedia, 2020, 22(6):1470-1484.

[7] KWON H, TAI Y W, LIN S. Data-driven depth map refinement via multi-scale sparse representation[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 159-167.

[8] ZUO Y F, FANG Y M, AN P, et al. Frequency-dependent depth map enhancement via iterative depth-guided affine transformation and intensity-guided refinement[J]. IEEE Transactions on Multimedia, 2020, 23: 772-783.

[9] ZUO Y F, FANG Y M, YANG Y, et al. Depth map enhancement by revisiting multi-scale intensity guidance within coarse-to-fine stages[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(12): 4676-4687.

[10] DIEBEL J, THRUN S. An application of Markov random fields to range sensing[C]// Proceedings of the 18th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2005: 291-298.

[11] FERSTL D, REINBACHER C, RANFTL R, et al. Image guided depth upsampling using anisotropic total generalized variation[C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2013: 993-1000.

[12] YANG J Y, YE X C, LI K, et al. Color-guided depth recovery from RGB-D data using an adaptive autoregressive model[J]. IEEE Transactions on Image Processing, 2014, 23(8):3443-3458.

[13] DONG W S, SHI G M, LI X, et al. Color-guided depth recovery via joint local structural and nonlocal low-rank regularization[J]. IEEE Transactions on Multimedia, 2017, 19(2):293-301.

[14] ZHANG Y D, ZHOU Y, WANG A H, et al. Joint nonlocal sparse representation for depth map super-resolution[C]// Proceedings of the 2017 IEEE International Conference on Image Processing. Piscataway: IEEE, 2017: 972-976.

[15] JIANG Z Y, HOU Y H, YUE H J, et al. Depth super-resolution from RGB-D pairs with transform and spatial domain regularization[J]. IEEE Transactions on Image Processing, 2018, 27(5): 2587-2602.

[16] ZHANG H T, YU J, WANG Z F. Depth map super-resolution using nonlocal higher-order regularization with classified weights[C]// Proceedings of the 2017 IEEE International Conference on Image Processing. Piscataway: IEEE, 2017:4043-4047.

[17] PARK J, KIM H, TAI Y W, et al. High quality depth map upsampling for 3D-TOF cameras[C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2011: 1623-1630.

[18] REN C, HE X H, NGUYE T Q. Adjusted non-local regression and directional smoothness for image restoration[J]. IEEE Transactions on Multimedia, 2019, 21(3):731-745.

[19] LIU H F, XIONG R Q, ZHANG X F, et al. Nonlocal gradient sparsity regularization for image restoration[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(9): 1909-1921.

[20] KATKOVNIK V, EGIAZARIAN K, ASTOLA J. Adaptive window size image de-noising based on Intersection of Confidence Intervals (ICI) rule[J]. Journal of Mathematical Imaging and Vision, 2002, 16(3):223-235.

[21] GOLDSTEIN T, OSHER S. The split Bregman method for L1-regularized problems[J]. SIAM Journal on Imaging Sciences, 2009, 2(2): 323-343.

[22] BECKER S R, CANDÈS E J, GRANT M C. Templates for convex cone problems with applications to sparse signal recovery[J]. Mathematical Programming Computation, 2011, 3(3): 165-218.

[23] Middlebury stereo datasets[DB/OL]. [2021-01-22]. http://vision.middlebury.edu/stereo/data/.

[24] ZUO Y F, WU Q, ZHANG J, et al, Explicit edge inconsistency evaluation model for color-guided depth map enhancement[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(2):439-453.

Depth image super-resolution based on shape-adaptive non-local regression and non-local gradient regularization

ZHANG Yingying1, REN Chao2, ZHU Ce1*

(1,,611731,;2,,610065,)

To deal with the low resolution of depth images and blurring depth discontinuities, a depth image super-resolution method based on shape-adaptive non-local regression and non-local gradient regularization was proposed. To explore the correlation between non-local similar patches of depth image, a shape-adaptive non-local regression method was proposed. The shape-adaptive self-similarity patch was extracted for each pixel, and a similar pixel group for the target pixel was constructed according to its shape-adaptive patch. Then for each pixel in the similar pixel group, a non-local weight was obtained with the assistant of the high-resolution color image of the same scene, thereby constructing the non-local regression prior. To maintain the edge information of the depth image, the non-locality of the gradient of the depth image was explored. Different from the Total Variation (TV) regularization which assumed that all pixels obeyed Laplacian distribution with zero mean value, through non-local similarity of the depth image, the gradient mean value of specific pixel was estimated by non-local patches, and the gradient distribution of each pixel was fit by using the learned mean value. Experimental results show that compared with Edge Inconsistency Evaluation Model (EIEM) on Middlebury datasets, the proposed method decreases Mean Absolute Difference (MAD) of 41.1% and 40.8% respectively.

depth image; super-resolution; shape-adaptive; non-local self-similarity; non-local gradient

This work is partially supported by National Natural Science Foundation of China (62020106011, U19A2052).

ZHANG Yingying, born in 1989, Ph. D. candidate. Her research interests include image super-resolution.

REN Chao, born in 1988, Ph. D., associate research fellow. His research interests include image prosessing.

ZHU Ce, born in 1969, Ph. D., professor. His research interests include image processing, artificial intelligence.

TP391.41

A

1001-9081(2022)06-1941-09

10.11772/j.issn.1001-9081.2021040594

2021⁃04⁃15;

2021⁃05⁃27;

2021⁃05⁃27。

国家自然科学基金资助项目(62020106011, U19A2052)。

张莹莹(1989—),女,山东泰安人,博士研究生,主要研究方向:图像超分辨率;任超(1988—),男,四川南充人,副研究员,博士,主要研究方向:图像处理;朱策(1969—),男,四川自贡人,教授,博士,CCF高级会员,主要研究方向:图像处理、人工智能。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!