当前位置:首页 期刊杂志

无锚点的遥感图像任意角度密集目标检测方法

时间:2024-05-04

杨治佩,丁胜,张莉,张新宇

无锚点的遥感图像任意角度密集目标检测方法

杨治佩1,2,3,丁胜1,2,张莉3*,张新宇1,2

(1.武汉科技大学 计算机科学与技术学院,武汉 430065; 2.智能信息处理与实时工业系统湖北省重点实验室(武汉科技大学),武汉 430065; 3.武汉晴川学院 计算机学院,武汉 430204)(*通信作者电子邮箱zhangly02@qq.com)

针对基于深度学习的遥感图像目标检测方法密集目标漏检率高、分类不准确的问题,建立了一种基于深度学习的无锚点的遥感图像任意角度的密集目标检测方法。首先采用CenterNet作为基线模型,经过主干网络提取特征,并改造原有检测器结构,即加入角度回归分支进行目标角度回归;然后提出一种基于非对称卷积的特征增强模块,并将主干网络提取到的特征图输入特征增强模块,从而增强目标的旋转不变性特征,消除由于目标的旋转、翻转带来的影响,进一步提升目标中心点、尺寸信息的回归精度。采用HourGlass-101作为主干网络时,该方法在DOTA数据集上的平均精度均值(mAP)比旋转区域候选网络(RRPN)提升了7.80个百分点,每秒处理帧数(FPS)提升了7.5;在自建数据集Ship3上,该方法的mAP比RRPN提升了8.68个百分点,FPS提升了6.5。结果表明,所提方法能获得检测精度和速度的平衡。

深度学习;遥感图像;目标检测;非对称卷积;无锚点目标检测

0 引言

遥感图像检测问题是计算机视觉[1]和模式识别[2]领域的热门话题,在军用与民用领域都有着广泛的应用前景。近年来,基于深度学习的目标检测[3-4]方法愈加广泛地应用于该领域,为国防、海事、自然资源管理等领域提供了新的解决方案,能提升资源利用率,加强国防预警能力。

目标检测方法按照预测框生成的方式可以分为基于锚点的目标检测方法[3]和无锚点(anchor-free)的目标检测[4]方法。

基于锚点的目标检测方法以许多不同大小比例的锚框(Anchor Box)作为物体定位的参考点,在此基础上生成候选框,检测精度一定程度上取决于锚框设计的好坏程度。基于锚点的方法根据分类回归方法可以分为单阶段检测方法[5]和两阶段检测方法[6]:两阶段检测方法首先通过区域候选网络(Region Proposal Network, RPN)[7]生成区域候选框,然后对其进行进一步的分类和回归操作,典型的方法有Fast R-CNN(Fast Region-based Convolutional Neural Network)[8]、Faster R-CNN(RPN+Fast R-CNN)[9]以及加入分割任务的Mask R-CNN(FCN+Faster R-CNN)[10];单阶段检测方法则跳过区域建议阶段,通过卷积神经网络(Convolutional Neural Network, CNN)生成特征图一次性得到最终的定位和分类预测,典型的方法有单阶多层检测器(Single Shot multibox Detector, SSD)[11]和YOLO(You Only Look Once)系列[12-14]方法。

通常认为两阶段方法相当于对目标做了两次位置预测,具有更高的精度但速度较慢,而单阶段方法速度较快但精度略显逊色。

无锚点的检测方法可以分为锚点预测算法[15]和关键点预测算法[3]:锚点预测算法是通过预测目标的中心点位置及边框与中心点的距离或目标尺寸(宽和高)来得到预测框;而关键点预测算法则是通过检测目标的关键点(如角点),再由这些关键点组合成目标的边界框。由于舍弃了手动设计的锚框,无锚点的检测方法具有更快的速度,可以更好地检测具有较大宽高比的目标。

文献[16]中提出了基于角点检测的CornerNet,舍弃了传统的锚框思路,将目标建模为目标边界框的左上角和右下角的一对顶点,即使用单一卷积模型生成热图和连接矢量:所有目标的左上角和所有目标的右下角热图,每个顶点的连接矢量。自CornerNet诞生以来,无锚点的方法开始出现井喷式增长,目标检测方法步入了无锚点时代。

在文献[16]的工作基础上,文献[15]中进一步将检测建模为对目标的中心点进行检测,并在此基础上回归出物体的尺寸信息的方法,其检测精度和速度相较于主流的基于锚点的检测方法均有提升。也因其简单的结构和可以用于人体姿态估计和3D目标检测的强大功能,该方法迅速在目标检测领域引起广泛讨论。

文献[17]在文献[9]的基础上提出了旋转区域候选网络(Rotation Region Proposal Network, RRPN),它在RPN中加入旋转的锚框生成带有方向参数的候选区域(Rotation Region of Interest, RRoI),并提出RRoI池化层,将具有角度的候选区域映射到特征图上,实现了一个能够输出旋转候选框的目标边界框架。

文献[18]中提出了旋转区域卷积神经网络(Rotational Region CNN, R2CNN),在RRPN的基础上修改了角度参数的表示方法,舍去旋转锚框以精简网络,并在池化层根据待检测目标横纵比较大的特性,额外添加了3×11和11×3两种池化尺寸,最后在全连接层中保留水平边界框的预测支路,进一步提升了网络性能。

文献[5-7]中的方法在自然视角的目标检测任务中取得了良好的效果,但在更具挑战性的遥感图像目标检测任务中,这些常规检测器往往不具有良好的泛化性。原因在于传统的目标检测任务中的目标通常因重力而有着向上的朝向,而在遥感图像检测任务中,目标通常因为拍摄平台的运行方向及相机角度等因素而展现出方向任意性;而且遥感图像中存在大量密集分布的目标,使用水平方向的检测器对具有方向任意性的目标进行边界框回归时,会同时将大量的背景信息包含在边界框中,这些额外的背景信息可能会影响分类器的精度;并且当边界框之间的重叠部分较大时,在密集分布的目标检测任务中,水平方向的检测器无法很好地将不同的目标分离开来。

文献[17-18]中的方法可以减少边界框中包围的具有方向任意性的目标和背景之间的重叠部分,更加紧密地包围目标,从而更好地对旋转和密集分布的目标进行检测和分类。但由于基于锚点的两阶段旋转边界框检测网络自身的参数量巨大,并且为了使网络适应旋转目标的检测再次引入了大量的参数,使网络结构更加臃肿,在检测速度上始终无法得到较大提升。

为解决上述问题,本文提出了一种基于CenterNet改进的遥感图像密集目标检测方法,在原有的模型结构上加入角度预测支线和一个基于非对称卷积的特征增强模块,增强目标的旋转不变形特征,消除由于目标旋转和翻转带来的噪声,从而提升目标检测模型的分类和回归精度,更好地回归目标的位置和尺寸信息。实验表明,本文设计的模型能够克服密集目标检测精度低的缺点,有效提升模型精度和速度。

1 模型结构

本文提出的基于CenterNet改进的目标检测模型整体可以分为特征提取网络、特征增强网络和检测头三部分。特征提取网络主要有残差网络(Residual network)、深度聚合网络(Deep Layer Aggregation network, DLA)[19]和沙漏网络(HourGlass network, HG)[20]等。其中HG可以获得最高的精度但预测速度较慢,而DLA可以取得速度和精度的平衡。

模型总体结构如图1所示。本文利用DLA和HG作为主干网络。为了保证密集目标的检测正确率,将输入模型的图片通过主干网络降采样4倍,得到128×128的特征图,在此基础上进行目标的定位和分类,最终模型输出为128×128×(+5)的热图,其中代表目标总类别个数,剩余5个通道分别代表中心点偏移(2通道)、目标尺寸(2通道)和目标角度(1通道)。

为了提取目标的角度信息,在检测器中加入了一个角度预测分支。输入经过主干网络后,将得到的特征图输入角度分支得到角度热图,而为节省计算资源,所有类别的目标共用同一个角度热图通道。

原有的中心点热图、偏移热图和尺寸热图则经过本文提出的特征增强模块,增强旋转不变性特征,消除由于目标的旋转翻转带来的影响,最终输入检测器相应分支得到检测结果。

图1 本文模型总体结构

2 本文方法

2.1 边界框定义

根据角度信息定义旋转矩阵为:

根据上述信息,可以得到带角度的边界框的顶点定义:

其中:lt、rt、lb、rb分别表示目标边界框的左上角、右上角、左下角及右下角坐标。

图2 边界框角度定义

Fig. 2 Definition of bounding box’s angle

2.2 标签处理

本文参照CenterNet的处理方法,将标签信息映射到与模型输出热图相同尺寸和维度的矩阵中。

2.3 损失函数

2.3.1 关键点损失与中心偏移损失

中心点和偏移损失采用CenterNet的处理方式,分别为改进的焦点损失(Focal Loss)[21]和最小化绝对误差损失(L1 Loss)[22]:

2.3.2 尺寸损失

2.3.3 角度损失

2.3.4 总体损失

模型的总体损失函数定义为:

2.4 特征增强模块

文献[23]中证明了可以将传统的方形2D卷积核(×)转换为并行的三个互相兼容的2D卷积核(1×,×1,×),可以增强方形2D卷积核骨架位置上的特征信息和对旋转翻转畸变的鲁棒性。

本文提出一种基于非对称卷积的特征增强模块(Feature Enhancement Module, FEM)以增强目标的旋转不变性特征,消除目标的旋转和翻转所带来的分类和尺寸回归精度问题,进一步提升网络精度。特征增强模块是一个可拓展的模块,可以很容易拓展到任意分支个数和任意卷积核大小,本文以3个分支为例。

特征增强模块位于主干网络和检测头之间,为了准确预测目标角度信息,直接将主干网络的输出特征图输入到角度回归分支;其他分支则输入特征增强网络,对目标的旋转不变性特征进行增强,得到的特征图再输入检测头进行目标的分类、定位以及尺寸信息的回归。

模块主要由三个分支构成,分别是两个非对称卷积分支和一个方形卷积分支。将两个非对称卷积分支得到的特征图与常规方形卷积分支得到的特征图进行融合可以增强方形卷积核骨架位置的特征,增强目标的旋转不变性特征,从而消除目标由于旋转和翻转带来的回归和分类精度问题。特征增强模块的每一个卷积层后都紧接一个非线性激活函数——线性整流函数(Rectified Linear Unit,ReLU)和一个批标准化(Batch Normalization, BN)层。

图3 特征增强模块结构

图4为输入经过主干网络和特征增强模块后的特征进行可视化叠加到原图的效果。

从图4中可以观察到,主干网络特征图经过特征增强模块后,目标主体的旋转不变性特征更加突出,消除了由于旋转和翻转带来的噪声,这有助于提升目标的定位和分类精度。

图4 特征增强模块效果

3 实验与结果分析

3.1 实验设置

实验设备为搭载Ubuntu 18.04 LTS操作系统的GPU服务器,CPU型号为Intel Xeon E5-2683 v3,GPU型号为Nvidia GeForce RTX2080Ti,显存11 GB,系统内存64 GB;环境配置为Cuda10.2,Cudnn 7.6.5;深度学习框架为Pytorch 1.3.1,Python 3.7.9。

3.2 数据预处理

DOTA数据集中的图像为太空卫星拍摄的遥感图像,分辨率范围为从800×800到4 000×4 000,包含2 806张图片,15个分类,主要用于具有旋转角度标签的遥感图像目标检测任务,其中包含的目标具有大量不同的宽高比和角度,如图5所示。在训练时将所有图片用滑窗的方式以256像素的重叠切割为512×512的切片,不使用数据增强。处理后的训练集包含176 235张图片,验证集包含44 936张图片,测试集包含91 007张图片。

图5 目标角度和宽高比分布

为了验证模型在其他遥感图像目标检测任务中的泛化性能,本文对BDCI数据集中的包含船只的图片进行重新标记,生成新的数据集Ship3,其视角为低空拍摄,包含游艇、邮轮和货船三个主要分类,目标宽高比均值为3.0,分辨率为1 024×1 024,经过处理后数据集包含8 965张图片,按照8∶1∶1的比例划分训练集验证集和测试集,数据集保持和DOTA数据集一样的标签格式。数据预处理时保持和DOTA数据集相同的方式,区别是不对图片进行切片或缩放,直接使用1 024×1 024的原分辨率输入网络进行训练。

3.3 评价指标

本文采用平均精度均值(mean Average Precision, mAP)作为评价指标,对模型进行精度的定量评价,mAP值的大小与网络性能的好坏呈正相关关系。mAP由所有类别的准确率平均精度(Average Precision, AP)求均值得到,计算公式为:

其中:表示总类别数,AP表示第个类别的AP值。

3.4 实验结果分析

如图6所示:在DOTA数据集上,当训练轮数达到44 epochs时,模型平均损失稳定在0.1附近,之后平均损失函数值基本无降低,表明训练过程收敛;在Ship3数据集上,当训练轮数达到35 epochs时,模型平均损失在0.1附近,训练收敛。

图6 训练损失图

图7、8分别是在DOTA数据集和Ship3数据集上的PR(Precision-Recall)曲线,其中横坐标为召回率,纵坐标为准确率。

图7 DOTA数据集上的PR曲线

图8 Ship3数据集上的PR曲线

通过Ship3数据集的PR曲线可以看到,模型在目标稀疏且宽高比较大的低空遥感图像检测任务中同样可以达到较好的效果。

3.5 不同方法对比实验

为验证本文方法的效果,与其他常用的基于深度学习的检测方法进行横向对比,在相同实验条件下,约定交并比大于0.5即表示检测正确,以mAP和每秒处理帧数(Frames Per Second, FPS)作为评价指标。

表1、2分别展示了本文方法和一些主流方法在DOTA数据集和Ship3数据集上的检测结果,加粗表示最优结果,加下划线表示次优结果。

从表1可以看出,在DOTA数据集上,相较于两阶段模型RRPN,本文方法采用HourGlass-101(HG-101)作为主干网络时的mAP提升了7.8个百分点,FPS提升了7.5;采用DLA-34作为主干网络时的mAP提升了5.13个百分点,FPS提升了23.5。相较于单阶段模型YOLO V4,本文方法采用DLA-34作为主干网络时的FPS降低3,但精度提升了6.83个百分点。

表1 DOTA数据集上不同检测方法性能对比

从表2可以看出,在Ship3数据集上,相较于两阶段模型RRPN,本文方法采用HG-101作为主干网络时的mAP提升了8.68个百分点,FPS提升了6.5;采用DLA-34作为主干网络时的mAP提升了7.94个百分点,FPS提升了21。相较于单阶段模型YOLO V4,本文方法采用DLA-34作为主干网络时的FPS降低2.5,但精度提升8.87个百分点

表2 Ship3数据集上不同检测方法性能对比

上述实验表明,在DOTA数据集上加入角度回归分支的CenterNet(HG101)相较于基于锚点的两阶段模型RRPN,FPS提升明显,约17.5,mAP提升约0.3个百分点;加入特征增强模块后,模型的mAP得到了较大提升,相较于没有加入特征增强模块的CenterNet(HG-101)提升约4.83,FPS下降约10,但相较于RRPN仍具有较大优势。在推理速度要求较高的场景下,可以使用CenterNet(DLA-34)加入角度回归分支和特征增强模块的版本,该版本在保证mAP相较于RRPN提升约5.13个百分点的同时FPS达到了约27,接近YOLO V4的推理速度。

特征增强模块在推理阶段造成了一定的速度损失,使FPS相较于仅添加了角度回归的基线版本有所下降,这是因为在特征增强模块中具有3个不同的卷积分支,造成了一定的计算量增加,但也使模型的mAP有了较大提升,且加入特征增强模块的模型相较于传统方法仍具有较大速度优势。综上所述,相较于RRPN,本文方法做到了速度与检测精度的平衡。

3.6 消融实验

为了验证本文提出的特征增强模块的有效性,实验并记录了使用不同的基线网络(DLA-34和HG-101)的情况下在DOTA数据集上进行消融实验。

本文对所有模型进行相同的训练轮数(50轮),每3轮在验证集上进行一次评估,使用评估损失最低的模型权重在测试集上进行消融实验数据的记录。由表3可知,在加入特征增强模块后,网络预测mAP在不同的主干网络下均提升约7个百分点。

表3 DOTA数据集上消融实验结果

3.7 实验效果

在DOTA数据集和Ship3数据集上的检测效果示例如图9所示,矩形框标注了两种方法的检测差异。可以看到,本文方法在不同视角数据集上相较于RRPN可以更好地检测出密集分布和大宽高比的目标,具有良好的鲁棒性。

图9 实验效果示例

4 结语

本文提出了一个基于CenterNet改进的无锚点的遥感图像任意角度目标检测方法,并加入一个基于非对称卷积的特征增强模块,以增强目标的旋转不变性特征,进一步提升模型精度,最后通过实验验证了本文方法的有效性。模型结构简洁,便于部署;但由于对角度信息的回归仅采用数值回归的方法,预测框未与真实边界框建立强联系,今后可在本文模型基础上加入带旋转的交并比损失作为网络总体损失的一部分,进一步提高目标检测精度;另外,随着无锚点目标检测算法的升级,将继续深入研究相应方法在遥感图像中具有任意角度的目标检测的应用问题。

[1] XU S Y, WANG J, SHOU W C, et al. Computer vision techniques in construction: a critical review[J]. Archives of Computational Methods in Engineering, 2021, 28(5): 3383-3397.

[2] LINDBERG A. Developing theory through integrating human and machine pattern recognition[J]. Journal of the Association for Information Systems, 2020, 21(1): No.7.

[3] TIAN Z, SHEN C H, CHEN H, et al. FCOS: fully convolutional one-stage object detection[C]/ /Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 9626-9635.

[4] ZHU C C, HE Y H, SAVVIDES M. Feature selective anchor-free module for single-shot object detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 840-849.

[5] CHEN Y T, HAN C X,WANG N Y, et al. Revisiting feature alignment for one-stage object detection[EB/OL]. (2019-08-05)[2021-05-01].https://arxiv.org/pdf/1908.01570.pdf.

[6] LI Z M, PENG C, YU G, et al. Light-head R-CNN: in defense of two-stage object detector[EB/OL]. (2017-11-23)[2021-05-01].https://arxiv.org/pdf/1711.07264.pdf.

[7] LI B, YAN J J, WU W, et al. High performance visual tracking with Siamese region proposal network[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 8971-8980.

[8] GIRSHICK R. Fast R-CNN[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015: 1440-1448.

[9] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.

[10] HE K M, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 2980-2988.

[11] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9905. Cham: Springer, 2016: 21-37.

[12] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 779-788.

[13] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. (2018-04-08)[2021-05-01].https://arxiv.org/pdf/1804.02767.pdf.

[14] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. (2020-04-23)[2021-05-01].https://arxiv.org/pdf/2004.10934.pdf.

[15] ZHOU X Y, WANG D Q, KRÄHENBÜHL P. Objects as points[EB/OL]. (2019-04-25)[2021-05-01].https://arxiv.org/pdf/1904.07850.pdf.

[16] LAW H, DENG J. CornerNet: detecting objects as paired keypoints[C]// Proceedings of the 2018 European Conference on Computer Vision, LNIP 11218. Cham: Springer, 2018: 765-781

[17] MA J Q, SHAO W Y, YE H, et al. Arbitrary-oriented scene text detection via rotation proposals[J]. IEEE Transactions on Multimedia, 2018, 20(11):3111-3122.

[18] JIANG Y Y, ZHU X Y, WANG X B, et al. R2CNN: rotational region CNN for orientation robust scene text detection[EB/OL]. (2017-06-30)[2021-05-01].https://arxiv.org/pdf/1706.09579.pdf.

[19] YU F, WANG D Q, SHELHAMER E, et al. Deep layer aggregation[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 2403-2412.

[20] NEWELL A, YANG K Y, DENG J. Stacked hourglass networks for human pose estimation[C]// Proceedings of the 2016 European Conference on Computer Vision, LNIP 9912. Cham: Springer, 2016: 483-499.

[21] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 2999-3007.

[22] PESME S, FLAMMARION N. Online robust regression via SGD on thelloss[C/OL]// Proceedings of the 34h Conference on Neural Information Processing Systems. [2021-05-01].https://proceedings.neurips.cc/paper/2020/file/1ae6464c6b5d51b363d7d96f97132c75-Paper.pdf.

[23] YANG X, SUN H, FU K, et al. Automatic ship detection in remote sensing images from Google Earth of complex scenes based on multiscale rotation dense feature pyramid networks[J]. Remote Sensing, 2018, 10(1): No.132.

[24] ZHANG S F, WEN L Y, BIAN X, et al. Single-shot refinement neural network for object detection[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 4203-4212.

Anchor-free remote sensing image detection method for dense objects with rotation

YANG Zhipei1,2,3, DING Sheng1,2, ZHANG Li3*, ZHANG Xinyu1,2

(1,,430065,;2-(),430065,;3,,,430204,)

Aiming at the problems of high missed rate and inaccurate classification of dense objects in remote sensing image detection methods based on deep learning, an anchor-free deep learning-based detection method for dense objects with rotation was established. Firstly, CenterNet was used as the baseline network, features were extracted through the backbone network, and the original detector structure was improved, which means an angle regression branch was added to perform object angle regression. Then, a feature enhancement module based on asymmetric convolution was proposed, and the feature map extracted by the backbone network was put into the feature enhancement module to enhance the rotation invariant feature of the object, reduce the influence caused by the rotation and turnover of the object, and improve the regression precision of the center point and size information of the object. When using HourGlass-101 as the backbone network, compared with Rotation Region Proposal Network (RRPN), the proposed method achieved a 7.80 percentage point improvement in Mean Average Precision (mAP) and 7.50 improvement in Frames Per Second (FPS) on DOTA dataset. On the self-built dataset Ship3, the proposed method achieved a 8.68 percentage point improvement in mAP and 6.5 improvement vin FPS. The results show that the proposed method can obtain a balance between detection precision and speed.

deep learning; remote sensing image; object detection; asymmetric convolution; anchor-free object detection

This work is partially supported by Natural Science Foundation of Hubei Province (2018CFB195).

YANG Zhipei, born in 1996, M. S. candidate, His research interests include computer vision, deep learning.

DING Sheng, born in 1975, Ph. D., associate professor. His research interests include computer vision.

ZHANG Li, born in 1978, M. S., associate professor. Her research interests include computer simulation, computer vision.

ZHANG Xinyu, born in 1996, M. S. candidate. His research interests include computer vision, deep learning.

TP751.1

A

1001-9081(2022)06-1965-07

10.11772/j.issn.1001-9081.2021060890

2021⁃06⁃01;

2021⁃08⁃12;

2021⁃08⁃18。

湖北省自然科学基金资助项目(2018CFB195)。

杨治佩(1996—),男,甘肃庆阳人,硕士研究生,主要研究方向:计算机视觉、深度学习;丁胜(1975—),男,湖北武汉人,副教授,博士,主要研究方向:计算机视觉;张莉(1978—),女,湖北武汉人,副教授,硕士,主要研究方向:计算机仿真、计算机视觉;张新宇(1996—),男,河南焦作人,硕士研究生,主要研究方向:计算机视觉、深度学习。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!