当前位置:首页 期刊杂志

无人机保距跟踪中的视觉跟踪算法研究

时间:2024-07-28

车 飞,李 杰,牛轶峰

(国防科技大学智能科学学院,长沙410073)

1 引 言

视觉目标跟踪作为机器视觉领域最具有研究热度的问题之一,在固定翼无人机的应用中具有很高的实际应用价值,比如机间避碰、地面目标跟随、地面目标侦察等。尽管机器视觉领域的学者们已经提出了很多通用目标跟踪算法,用于跟踪视频初始帧中任意指定的目标,并且在跟踪精度和跟踪鲁棒性上不断提升,但是在机载条件下使用固定翼无人机作为平台,基于视觉对地面目标进行跟踪仍然是一个极具挑战性的研究方向。固定翼无人机对地面目标进行跟踪的时候常常采用保距跟踪的方式,即和目标保持一定距离,在目标上方进行盘旋飞行,这样有利于持续获取分辨率更高的图像。但在这种跟踪方式中,持续稳定获取目标图像存在一定难度,一方面,除了一般视觉跟踪问题中存在的目标被遮挡,目标出视窗和光照变化等问题外,还存在图像抖动不稳定,平面外旋转和机载处理器运算能力不足等问题;另一方面,视觉目标跟踪的结果往往会作为飞行控制系统的输入量,控制云台的运动和无人机的飞行,并结合云台和无人机的姿态,解算目标在世界坐标系中的位置,用于引导无人机对目标进行保距跟踪。在这种情况下,对视觉目标跟踪的准确性和鲁棒性提出了更高的要求,现有跟踪算法的跟踪效果不能满足固定翼无人机应用的需求,需要针对新出现的难点进行算法的改进。

使用固定翼无人机跟踪地面目标,在算法实现上需要从以下几个方面进行考虑[1]。(1)准确性:作为云台姿态和无人机运动的控制量和后续定位算法的数据来源,视觉目标跟踪的准确性是必须考虑的因素之一;(2)鲁棒性:在飞机对目标实施保距跟踪的过程中,视觉目标跟踪算法必须能够适应目标图像的显著变化,不能因为目标外观变化而出现大范围的跟踪漂移;(3)恢复性:在跟踪的过程中需要判别目标是否已经被遮挡或出视窗,并在目标再次出现的时候具备重检测的能力;(4)实时性:机载图像处理平台计算能力较弱,而无人机应用中需要图像定位模块实时地为控制系统提供目标在图像中的位置,因此需要使用计算量较低的算法对目标进行实时的视觉目标跟踪。

2 相关研究

2.1 视觉目标跟踪方法

研究计算机视觉的众多学者将注意力集中在了视觉目标跟踪方面,该研究的目的是在一系列连续的视频帧中持续确定感兴趣区域即目标的位置和区域(如图1所示),从方法上来看,现今的目标跟踪算法主要分为三类:深度学习、相关滤波和经典方法。

图1 目标跟踪示意Fig.1 Visual object tracking

深度学习最开始应用于目标识别领域,后来Wang N 等[2]在2013年提出的deep learning tracker中首次将深度学习应用到视觉目标跟踪中,使用大量的离线数据训练叠式抗干扰自动编码器(SDAG)学习一般的图像特征,随后Nam H 等[3]基于多域学习框架训练了卷积神经网络,并用于视觉目标跟踪。随后众多学者从网络设计、参数训练等角度对深度学习类跟踪器进行了研究[4-6],但是此类方法计算速度极慢,在使用GPU的情况下大多数不能够达到实时。原因有三:一是需要使用大量的数据进行训练,这是深度学习方法的一个通病;二是使用网络提取特征本身计算量大;三是针对具体的跟踪问题进行在线更新参数的速度极慢。针对这些问题,Bertinetto L等[7]仅仅使用卷积神经网络进行特征提取,通过两个同样的网络对模板和搜索区域进行特征提取,然后进行卷积操作,得到和模板最相似的区域,即为估计的目标位置,这种方法和相关滤波类方法类似,是深度学习类跟踪算法以后的主要方向,也有众多学者予以跟进[8-9]。而Held D 等[10]在GOTURN 中则直接放弃在线更新参数的过程,并且网络进行离线训练,在牺牲一部分精度的情况下速度达到了100fps。总体来说,使用深度学习方法进行视觉目标跟踪优势劣势都很明显,由于最先应用于目标识别,深度学习类跟踪器能够准确估计目标的位置信息,但是计算量极大是该类算法不可避免的一个问题,也是该类算法跨入实际应用必须解决的一个问题。

目标跟踪的根本目的在于解决使用目标识别方法确定目标位置时速度过慢,不能投入实际应用的问题,相关滤波类方法的出现很好的解决了这个应用性问题。自2010年Bolme D S 等[11]在MOSSE中引入相关滤波以来,相关滤波类跟踪方法在近几年成为研究热点。Henriques J F 等[12-13]和Danelljan M 等[14-15]从训练速度、特征提取和尺度自适应等方面给出了解决方案,Wang M 等[16]和Ma C 等[17]则从及时发现跟丢现象并提出重检测策略着手,在提高长期跟踪的能力上进行了深入研究,分别提出了判断跟踪质量的指标。相关滤波方法计算速度快、框架简单、适合改进,但是相关性操作本身限制了算法对尺度变化的适应能力,并且容易受到目标形变和遮挡影响。因而,现今对相关滤波类跟踪器的研究主要集中在如何提高该类方法对目标外观变化的适应能力方面。

2010年以前,目标跟踪领域主要使用一些比较经典的跟踪方法,这些方法一般对目标图像进行建模,然后在下一帧中寻找匹配度最高的区域。Meanshift[18]及其改进算法是基于概率分布图对目标位置进行估计,概率最大的位置就是预测的目标位置,使用粒子滤波[19]的方法则通过在搜寻区域随机确定粒子,提取特征并进行比对,此方法因为需要对大量区域重复进行采样和特征提取,速度很慢,而使用Kalman Filter[20]的跟踪方法则放弃对目标本身进行建模,转而对目标运动模型进行建模,估计目标在下一帧的位置。以上方法在深度学习类和相关滤波类方法出现以后,因为不能处理和适应复杂的跟踪变化,在跟踪精度和鲁棒性上逐渐被超越,从而逐渐被舍弃。

总体来说现今的跟踪算法主要使用深度学习和相关滤波进行跟踪器的设计,前者偏重跟踪精度的提升,计算速度慢是其天然的劣势,后者则因为相关操作带来计算量的大幅降低而在实际中有更广泛的应用,但需要设计合适的策略应对目标外观的显著变化带来的跟踪漂移问题。

2.2 基于相关滤波的目标跟踪

基于相关滤波进行跟踪算法的设计是当今视觉目标跟踪领域的主流研究方向,该类方法将信号处理领域中的相关性操作引入,在新的一帧中找出和模板图像相关性最高的位置,该类方法由于使用了傅里叶变换,在频域进行相关性操作,运算复杂度更低,运算速度快,一般能够达到实时性的要求。Bolme D S等[11]在2010年第一次将相关操作引入视觉目标跟踪,当即以较高的准确率和极快的运行速度(669fps)引起轰动,之后Henriques J F等[12-13]先后将核方法和循环矩阵引入,分别提高了跟踪器对目标的区分能力和滤波器的训练效率,并首次采用了梯度直方图(HOG)作为特征描述方式,KCF 算法也是几乎所有相关滤波类跟踪器的参考算法。此时相关滤波器跟踪器面临不能进行适应目标尺度变化,存在边缘效应和特征表达能力不强等问题。Danelljan M 在DSST[15]中添加尺度估计滤波器用于估计目标的尺度变化,而Li Y[21]则采用了比较简单实用的尺度金字塔思路,通过进行不同尺度的采样,得到可能性最大的目标尺度。在解决边缘效应方面,Danelljan M 在SRDCF[22]算法中提出了一种空间正则化方法减轻了边缘效应对目标跟踪的影响,另外为了增强对目标的描述能力,他在CN[14]和C-COT[23]中分别引入Color Names 和卷积神经网络(CNN)特征对目标进行描述,但相应的计算量也成倍增长,因此Danelljan M 在ECO[24]中从提高时间效率和空间效率的角度出发,在C-COT的基础上从模型、训练集和模型更新三个方面进行改进,取得了速度和精度的双提升。而Staple[25]就另辟蹊径,针对颜色特征和HOG 特征对目标形变和运动模糊等有不同的鲁棒性,考虑将二者跟踪结果有机结合,该算法是一种简单而高效的跟踪方法。另外针对跟踪过程中出现的漂移问题,Wang M 等[16]、Ma C等[17]和Lukezic A 等[26]就跟踪结果的置信度建立了评估方法,并据此引导滤波器进行适时的更新,提高了目标跟踪的鲁棒性。

相关滤波类跟踪器是视觉目标跟踪的一个主要研究方向,现在主要研究集中在提高对目标形变的鲁棒性和减少跟踪漂移两个方面,并且同时要保持相关滤波类算法的计算速度快、易于投入应用的优势。

3 基础知识

3.1 保距跟踪问题描述

固定翼无人机相对于多旋翼无人机来说具有飞行速度更快,航程更远,载荷更大等优点,但在使用固定翼无人机对地面移动目标进行持续观测的时候,飞机速度一般比地面目标速度更快,如图2 所示,飞机一般需要以目标为中心,同目标始终保持一定距离进行航迹规划,该跟踪模式称为保距跟踪。

图2 固定翼无人机对地面目标进行保距跟踪Fig.2 Standoff tracking using fixed-wing drone

在这种跟踪模式下,能保证目标长时间在传感器的有效感知范围内,比如摄像机的视窗或雷达的有效感知半径。

在对地面目标进行保距跟踪时,一般有两条技术路线,一是直接利用目标在视窗中的位置作为控制量,控制调整无人机的飞行动作,使目标在摄像机视窗的中心位置,称之为视觉伺服控制;二是使用摄像机作为传感器,结合云台和无人机的姿态,解算出目标在大地坐标系中的位置,再进行航迹规划,控制无人机飞行。两种方法都需要得到目标在视窗中的准确位置,这是进行后续控制和位置解算的基础,因此研究基于固定翼无人机平台的视觉跟踪算法是具有应用价值的。图3是使用固定翼无人机对地面目标进行保距跟踪的实机飞行图。

图3 保距跟踪的实机飞行Fig.3 Flight test of standoff tracking

3.2 核相关滤波算法

本文提出的算法是与核相关滤波跟踪器紧密相关的。核相关滤波算法的关键在于提出将循环矩阵用于负样本的快速采样,在提高滤波器的判别能力的基础上极大地加快了算法的运行。

假设一个一维向量x =[x1,x2,…xn],它的一个循环位移是s1=[xn,x1,…xn-1],以x 为基向量的循环矩阵为S =[xT,sT1,…sTn-1]T。对于二维向量,比如N×N的图像,采取类似的方法,生成一个N2× N2的分块矩阵。

KCF 算法中循环矩阵的引入是基于以下假设:初始目标样本,即正样本的循环位移样本是能够大致代替目标周围的稠密采样的。虽然循环位移样本是一种自动生成的“虚拟样本”,在实际的环境中一般不会有一模一样的样本,但是从算法的效果来看,这样的假设在大多数情况下是能够成立的。假设基向量为x,其循环矩阵为X = C(x),循环矩阵的性质之一是可以被基向量傅里叶变换对角化,此性质可以大大简化滤波器的训练过程。

对于线性情况,相关滤波器的训练可以看为一个线性脊回归问题,该脊回归的目标函数可以表示为:

该问题的封闭解为w=(XTX + λI)-1XTy,将回归矩阵的性质代入可以得到回归问题的解=为x的傅里叶变换,为的复共轭。

为了应对非线性情况,KCF 采用了核方法提高分类器的区分能力,核方法的回归式为f(z) =αTκ(z),其中κ(z)表示测试样本z和所有训练样本的核函数,在对偶问题中参数的封闭解为α =(K +λI)-1y,K 为所有训练样本的核相关矩阵:Kij =κ(xi,xj),在使用高斯核的情况下可以保证核相关矩阵K 也是循环矩阵,相应的对偶空间也可以得出参数解:

一般采用高斯核函数计算x 和x′之间核相关,计算的方法为:

检测阶段,通过计算基样本x和检测样本z之间的核,并求其与参数解之积的反傅里叶变换,就可以得到检测区域的响应图,根据最大位置,就可以得到目标的位置相对移动。

y 为得到的响应图,通过图中响应最大的位置坐标可以得出两帧图像之间目标位置的差值,从而获取当前帧目标的位置。

3.3 跟踪质量评价

一般的目标跟踪是一个开环的过程,即使用跟踪器跟踪上一帧的目标,估计当前帧中目标的位置,估计完成后更新目标的模板,以此为检测器在下一帧检测目标的位置,至于跟踪器跟踪的效果如何,更新后的模板能不能有效反映目标的外观变化,目标是否出现了被遮挡或出视窗的情况,这些都是不确定的。如果不存在检测跟踪效果的环节,没有对跟踪的质量进行评估,就无法确定模板的更新和是否重检测的时机。因此为了实现对目标长期有效的跟踪,对跟踪的效果进行评估是一个不可或缺的环节。

Wang M 等[16]在LMCF 中提出了两种置信度评估方法,第一个指标是最大响应值,即相关滤波中响应最大的值,因为这个指标反映了跟踪结果和模板的相似程度,如果该指标过低说明可能出现了遮挡或明显的形变,第二个指标是平均峰值相关能量(Average Peak-to Correlation Energy,APCE)

3.4 平面内旋转和平面外旋转

平面内旋转和平面外旋转是视觉目标跟踪中跟踪算法需要解决的重要干扰问题。图4直观展示了平面内旋转和平面外旋转效果的差异。

图4 平面内旋转和平面外旋转Fig.4 In-the-plane rotation and out-of-plane rotation

平面内旋转一般表现为目标图像进行了单纯的图像旋转,也可以理解为目标和相机相对方位和距离没有变化,仅仅是相机围绕其光轴进行了旋转,该旋转产生的结果对目标的外观没有重大影响,只是目标图像进行了旋转。

平面外旋转则表现为目标图像出现的重大外观变化,一般出现在目标和相机的相对方位出现了较大变化的时候,此时相机一般在目标的斜上方,围绕目标进行旋转运动,典型的场景就是携带相机的无人机在目标斜上方进行拍摄。

4 基于线性旋转子空间的视觉跟踪算法

4.1 线性旋转空间

在无人机进行保距跟踪的情况下,目标和无人机之间的相对位置呈现出周期性的变化,相应的,目标在摄像机中的外观也会呈现出对应的周期性变化(如图5 所示),一个周期均是无人机盘旋一周的时间,本文将之称为跟踪周期。

经过实验测试分析(如图6 所示),常用跟踪算法(ECO,SAMF,Staple,CN,KCF,CSR-DCF)在目标图像周期性变化的过程中会逐渐出现跟踪漂移的情况。出现这种情况的原因在于基于相关滤波的算法是在线更新的,即在每一帧都会对目标的模板进行更新,使用这种更新方式跟踪效果好的前提是上一帧得到的目标位置和区域是准确的,是能真实反映目标外观的,否则模板就会逐渐被混入的背景污染,出现累计误差,在没有重检测环节的情况下,这种污染会越来越严重,跟踪框会离目标越来越远,直至完全跟丢,不可挽回。

为了防止跟踪过程中出现漂移,将初始帧的目标图像进行平面内旋转,模拟相机在目标不同方位的视角下的平面外旋转成像,利用这些“伪图像”训练滤波器,并用于第一个跟踪周期的目标定位,在第一个跟踪周期内利用获取的“真图像”,替换掉生成的“伪图像”,完成新的滤波器的更新。

图5 保距跟踪情况下视角变化导致目标图像出现周期性变化Fig.5 The periodic change of target image caused by periodic change in standoff tracking

图6 一般跟踪算法出现误差Fig.6 Tracking drift of state-of-art algorithm

将初始帧图像旋转θ°之后,在新的目标位置周围取同样大小的图像区域Iθ训练该角度下的滤波器。假设初始帧图像大小为(W,H),目标中心的图像坐标为(x,y),目标大小为(w,h),相关滤波类算法中一般使用目标周围一定区域的图像I进行滤波器的训练,此处考虑到图像中目标的纵横比会发生极大变化,且不利于统一尺寸的相关滤波器的生成,将I设定为正方形区域,边长L为

其中,padding是用来调整区域大小的参数。旋转后图像的大小(WR,HR)为

根据图像旋转的性质,原目标中心坐标(x,y)旋转θ之后,在新图像中的坐标(xR,yR)。

在旋转后的图像中,以(xR,yR)为中心,取边长为L 的正方形图像作为该角度的滤波器训练图像,并使用KCF 算法中滤波器训练方法进行训练。假设每次旋转θ°,取得的训练图像为Iθ,训练完成的滤波器为Fθ,共训练完成360/θ 个滤波器。从初始帧开始,每次进行目标位置检测的时候均用相邻的三个滤波器同时进行检测,将三个滤波器响应最大的滤波器对应的响应位置作为新的目标位置,并在该滤波器响应峰值最大时更新相应图像和滤波器,增强下一个跟踪周期内对目标位置的判别能力。

4.2 线性旋转子空间更新机制

在合适的时机用正确的目标图像更新线性旋转子空间是稳定跟踪的保证,图7 给出了线性旋转子空间的更新机制。在首帧,将目标图像进行正负一定角度的平面内旋转,用之训练滤波器组,检测时用相邻三个滤波器同时进行检测,当某平面内旋转图像对应的滤波器跟踪效果检测最优时,可以认为此时检测到的目标图像是该视角的正确图像,立即更新旋转子空间中对应视角和相邻视角的图像。经过一个整周的盘旋,可以获取目标各个视角的准确图像,可以保证后续跟踪的稳定性。

图7 线性旋转子空间更新机制Fig.7 Update process of linear rotate subspace

4.3 跟踪质量判定

跟踪质量判定是及时纠正错误跟踪的基础。据研究,跟踪准确的响应图具有以下特征:响应最大处峰值大,最高峰比较陡峭,响应图波动较小。本文采用平均响应梯度(Mean Gradient of Response,MGR)和平均峰值相关能量(Average Peak-to Correlation Energy,APCE)进行跟踪效果评估。

最大值周围一定范围内的平均梯度作为衡量最大值所在峰的陡峭程度:

其中mean,grad 分别表示取均值和取梯度操作,region表示最高峰附近以LR为边长的正方形区域。

平均峰值能量[16]能够反映响应图的波动程度,为此采用评估方法为:

其中Imax为响应图的最大值,Imin为响应图的最小值,Iw,h为响应图中每个位置的响应值。该值越大反映响应图的峰值越明显,峰值以外区域波动不明显,即跟踪的效果较好。

4.4 算法总体框架

图8 给出线性子旋转空间视觉跟踪算法(LineAr Rotate Subspace based visual Tracking,LARST)总体工作流程。首先在首帧中使用目标识别算法识别出视窗内的目标,紧接着生成该目标图像的线性旋转子空间,并训练对应的滤波器组,之后的工作将紧紧围绕使用滤波器组检测目标位置并随时利用获取的目标图像更新滤波器组展开。例如,在使用目标跟踪算法对第t 帧中的目标进行定位的时候,使用t-1 帧中对目标响应最大的滤波器(称之为主滤波器)及相邻的滤波器(称之为旁滤波器)对目标位置进行检测。如果主滤波器响应最大,即表示该目标外观没有发生显著变化,不用更新滤波器组,反之如果旁滤波器响应最大,且跟踪效果较好,该旁滤波器没有更新过,就使用该跟踪结果更新滤波器组,如果跟踪效果不好,就在跟踪结果的小范围距离内使用简单的目标检测算法对目标进行检测定位,并用于更新滤波器序列。最后,如果跟踪质量检测表示已经出现遮挡或出视窗等严重跟丢情况,在下一帧扩大范围搜寻目标的位置。

图8 基于线性旋转空间的视觉跟踪算法(LARST)总体框架Fig.8 Algorithm flow of linear rotate subspace visual tracking(LARST)

5 实验及结果

5.1 实验参数设置

为了验证算法的有效性以及性能,分别采用四旋翼拍摄数据集以及固定翼无人机保距跟踪采集数据集对算法进行验证。采用的线性旋转子空间的数目,即序列滤波器的数目为n=24,即每隔15°训练一个滤波器,搜索算法中padding 值为2.5,为了缩短取样的时间,将搜索区域设置为以上一帧目标位置为中心的正方形区域内,方便将一次取样和多个角度滤波器进行检测,并且在实验中采用fHOG特征,CN特征,降低特征提取的计算复杂度,提高算法的实时性。

实验先采用笔记本电脑进行算法验证,笔记本电脑的CPU 为i7-6700HQ,GPU 为GTX 960m,8GB内存,最后的实机飞行阶段采用TX1搭载图像处理算 法,CPU 为A57,GPU 为NVIDIA Maxwell,4GB内存。

实验侧重于关注跟踪距离误差(Center Location Error,CLE),即跟踪结果中目标中心位置和手动标记的跟踪框中心位置的直线距离,因为目标中心在视窗中的坐标是固定翼无人机保距跟踪中需要的唯一参数。

5.2 四旋翼无人机视角数据集实验

本文算法解决固定翼无人机视角下目标旋转后的跟踪偏差问题,但没有公开的固定翼无人机视角的数据集用于训练和测试算法,为了模拟固定翼视角下的目标跟踪问题,选择UAV123 和VisDrone中目标大幅度旋转的视频序列,和使用四旋翼无人机拍摄的视频序列进行算法测试,验证算法有效性及性能。具体包括VisDrone 中的Car1,car2,car7 和UAV123 中的S1313,S1702,S1603 以及四旋翼无人机拍摄S11,S12,S13,S14等序列。

图9 给出了Car1 序列中跟踪效果的关键帧,可以看出:在跟踪的前半段,目标和无人机之间的相对位置发生了显著变化,目标图像发生显著的平面外旋转,此时普通的视觉跟踪算法均出现了不同程度的跟踪漂移,而LARST算法能够有效利用多个角度的滤波器对目标位置进行准确估计,减少了跟踪漂移的情况。在目标被遮挡并重新出现以后,其他算法不能及时重新检测目标,而LARST算法能够在寻回机制的帮助下及时找回跟丢的目标,并继续进行较为准确的跟踪。

图9 Car1序列中跟踪结果关键帧比较Fig.9 Key frames of tracking result in sequence Car1

图10 Car1序列中跟踪距离误差变化图Fig.10 Center location error of tracking result in sequence Car1

图10 给出了Car1 序列中,LARST 算法和其他六种通用视觉跟踪算法的跟踪效果对比。可以看出,在视觉跟踪的前半段,目标图像发生明显旋转的情况下,LARST算法能够保持较为准确的跟踪精度,尤其是在720帧左右,目标图像被建筑物完全遮挡并再次出现之后,其余通用跟踪算法完全跟丢,LARST 算法能够在目标重新出现之后及时发现目标的踪迹,并及时锁定位置,继续进行较为准确的位置估计。

5.3 固定翼视角数据集测试

实验采用固定翼无人机对地面目标进行保距跟踪,使用机载摄像机记录目标图像。经过标注的图像序列有S21,S22,S23。相对于四旋翼无人机采集数据集,固定翼无人机采集数据集存在目标晃动幅度更大的问题,带来更明显的目标外观变化,对跟踪算法提出了更高的要求。

图11 给出了六种通用跟踪算法和LARST 算法跟踪的关键帧比较。可以看出,在使用固定翼无人机拍摄的目标图像序列中,LARST 算法能够在跟踪的过程中始终保持相对准确的跟踪效果,没有出现超出容忍范围的跟踪误差,与此同时,其余通用跟踪算法均不同程度地出现了跟踪漂移的问题,特别是在跟踪的后半段出现了部分算法直接跟丢的情况,这在实际运用中明显是不被允许的。

图11 S22序列中跟踪结果关键帧比较Fig.11 Key frames of tarcking result in sequence S22

图12 S22序列中跟踪距离误差变化图Fig.12 Center location error of tracking result in sequence S22

图12给出了六种通用跟踪算法和LARST算法对S22 序列图像的跟踪误差变化曲线。曲线表明LARST 算法对目标位置的估计误差始终保持在一个相对较低的水平,并且误差波动较小,与之形成对比的是,其余算法的跟踪误差均在一个相对较高的水平,部分算法误差较大,且起伏较大,分析认为是出现了跟踪丢失的情况。

5.4 固定翼无人机飞行实验

为了验证LARST 算法在进行飞行时是否能够持续稳定地获取目标在图像中的位置,并为后续的定位跟踪环节提供可靠数据,使用小型固定翼无人机进行了实机飞行验证。

实验采用如图13所示的灵雁固定翼无人机,飞机上搭载了通信设备、电源、图像处理器、自动驾驶仪以及搭载有摄像机的吊舱,无人机采用GPS 进行定位导航,采用P900进行对地通信。实验中使用两架灵雁无人机协同跟踪单辆汽车,实验设置如下:车辆运动速度约为6m/s,两架无人机起飞后自主进行覆盖搜寻,搜寻到目标进行大致定位后,通过地面通信站互通目标状态信息,然后两架无人机协同对地面目标实施融合定位与跟踪。实验中,LARST算法运用于整个定位跟踪系统的最前端,即发现并实时提供目标在图像中的位置,为后续的融合定位提供可靠的数据源支持,在一定程度上保证定位的准确度。图14 展示了双无人机跟踪地面移动目标的实机飞行图以及其中一架无人机的机载摄像机图像。

图13 搭载有摄像机的灵雁固定翼无人机Fig.13 Ling Yan fixed-wing drone with camera

图14 基于视觉的双无人机协同跟踪地面移动目标示意图Fig.14 Vision-based dual UAV cooperative tracking of ground moving targets

图15 基于视觉的双无人机协同定位算法流程Fig.15 Algorithm flow of vision-based dual UAV collaborative location of ground moving target

图16 无人机保距跟踪目标实验效果Fig.16 Experimental results of UAV standoff tracking

实验系统的工作流程如图15所示:每架无人机上的摄像机对地面目标进行搜索、检测,当检测到目标后进行视觉层面的跟踪操作,然后根据目标在视窗中的位置,结合云台的姿态、飞机的姿态和无人机的定位信息,解算出目标的位置信息,结合多架无人机的位置估计信息,进行位置状态融合,得到更加准确的目标位置,最后引导飞机对目标进行持续的盘旋跟踪,对目标进行持续的观测。

实机飞行中验证了LARST 算法的有效性,能够运用于固定翼无人机对地目标的检测跟踪和定位算法,在飞行中能够稳定获取目标车辆在视窗内的位置信息。图16 给出了实验中两架无人机的机载视角图像,以及地面站显示的跟踪效果示意图。

6 结 论

本文从以下三个方面入手,提出了基于固定翼无人机平台的基于线性旋转子空间的视觉跟踪算法,能够对无人机视觉跟踪难点有一定抑制作用,并满足机载视觉目标跟踪算法的相关基本要求:

(1)提出了一种在线生成线性旋转子空间并训练相关滤波器的方法,使用这种方法能够有效抑制平面外旋转产生的视角变化带来的跟踪漂移现象,在目标出现平面外旋转的情况下依然能够有效捕捉到目标的位置;

(2)引入跟踪置信度的判断准则,判断跟踪结果的质量,并借此判断模板更新时机和目标是否已经丢失;

(3)使用低维特征对目标进行描述,满足实时性要求,并使用搭载LARST算法的固定翼无人机进行实机飞行。

实验表明算法对跟踪漂移有一定的抑制效果,且跟踪效果优于现有算法,实机飞行表明算法能够用于多无人机协同目标定位与跟踪。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!