时间:2024-06-19
陈景涛,杨志刚,程 力,王华磊
(重庆交通大学 机电与汽车工程学院,重庆 400074)
近几年,动态目标检测[1]是一个研究的热点,主要是由于它在智能监控、工业检测、医学分析、军事等领域具有广泛的应用前景和潜在的经济价值。它还是目标检测、识别和对目标行为进行描述和理解的基础。因此国内外许多检测、监控、识别等相关领域的研究人员都对此进行了比较深入的研究。方法种类繁多,光流法[2-3]、帧差法[4-5]和减背景法[6]等是当今通常使用的方法。
其中,光流法的优点在于光流不仅携带了目标的运动信息,而且携带了三维景物的结构信息,在场景信息未知情况下,能很好地检测出运动对象,检测准确度高,但光流法计算量大、实时性差。虽然减背景法和帧差法都具有实现简单、实时性高的优点,但各自都有自身的缺点。减背景法在已知简单背景下,检测效果好,但存在背景获取困难、受光照影响严重且更新难等问题;帧差法受光照影响小,利用帧间灰度或梯度信息进行逐点比较,提取运动目标,对动背景检测效果不理想。而SAD[7]正是减背景法和帧差法的特殊情况,二者的优缺点SAD也兼而有之。由此可见,每种单一的方法都很难满足在运动的车辆上进行动态目标检测的需要。经过查阅资料及相关研究,我们决定联合两种能够互补优缺点的算法,即利用光流法与SAD算法各自的优点,提出了我们的研究课题。
基于SAD的稳定视频法是一种模板匹配法,它的核心就是模板匹配模块。首先设需要运用的模板大小为M×N,时刻t和t+1的图像灰度值分别为f(x,y,t)和f(x,y,t+1),然后使用模板匹配块来计算在每个像素点的差分绝对值,如下式所示。
通过式(1)将输入图像的像素点与模板上对应的像素点进行SAD运算,而计算结果中的SAD值最小的那个像素点正是检测区域内的最佳模板位置,而模板所覆盖的区域正是检测目标原始运动的区域,因此就可获得目标运动的原始位置信息,将该信息与输入的目标信息进行处理之后就可获得检测目标与其原始位置的位移矢量。平移模块就会利用这个矢量来转换每帧的图像,由此来消除不必要的摄像头平移运动或振动带来的图像干扰问题,从而获得稳定的视频流。具体的Simulink仿真模型如图1所示,仿真结果如图2所示。
光流法的主要任务就是计算光流场[8],通常有基于全局光流场和特征点光流场两种方法。最经典的全局光流场计算方法是L-K(Lucas & Kanade)法[9]和H-S(Hom & Schunck)法[10]。得到全局光流场后,通过比较运动目标与背景之间的运动差异对运动目标进行光流分割,缺点是计算量大,这个缺点可以用一些方法来弥补;特征点光流法通过特征匹配求特征点处的流速,具有计算量小、快速灵活的特点,但稀疏的光流场很难精确地提取运动目标的形状。
下面所讨论求光流的方法主要是参考Horn和Schunck在1981年发表的该方面的理论,即用全局平滑约束条件与基本约束光流方程联合求解光流值。通过一些数学运算就可以将此方法简化成关于下面的式子[8]。
本文处理的都是视频图像,因此需要处理的是一个图像序列。在此处,我们为了减少计算量,弥补H-S法的缺点,提高效率及实时性,利用一次迭代的结果进行初始化图像序列中的当前图像对。下面是在图像序列中进行的光流计算的步骤。
(1)首先对图像中的每个像素点(i,j)的光流值进行估计,并将此估计值作为初始值赋给c(i,j)。
(2)对目前正处理的图像进行编号,设m为它的序列号。并估计接下来的那幅图像中的每个像素,如下所示。
(3)返回第2步,对下一幅图像继续处理直到处理完图像序列中每一幅图像,才退出来终止。
系统的结构主要由视频输入部分、SAD &Stablization部分、光流计算部分、阀值与区域滤波部分以及视频显示部分(包括Stablization Video和最终结果显示)组成。
具体如图3所示的Simulink仿真模型,首先通过视频输入设备获取视频,然后将其经过SAD &Stablization模块处理,消除不必要的摄像头的平移运动或振动带来的图像干扰问题,从而获得稳定的视频流,处理后的结果如图2(b)所示。在前面的过程中也获得了运动目标区域的检测并将其提取出来,之后将这个带有目标区域的稳定视频流送进H-S光流算法模块,让其进行处理得到该区域的光流场如图5(a)所示。最后再通过阀值与区域滤波模块获得我们需要的阀值结果如图5(b)所示以及最终的目标检测结果如图5(c)所示。
仿真试验以主频为2.10 GHz的CPU,2 GB内存的32位的普通PC机为硬件平台,采用Matlab/Simulink进行系统建模和仿真,结果如下。
通过观察上面的仿真结果以及图像上的光流点的分布如图4(a),可以看出在没有加入SAD稳定算法时,整个图片几乎每个角落都有光流的踪迹。阀值结果图4(b)给我们的感觉就是运动部分比较分散,连车辆前面的道路以及树木等非目标的移动都被很明显地检测出来了,这样得出的结果就如图4(c)所示,精确度不高,重要区域检测的重合度导致车辆分辨能力降低。而将经过SAD稳定算法处理后的视频进行光流检测的结果如图5(a),明显感觉到光流点的分布比较集中,最重要的是集中在了车辆前方的运动目标上,观察阀值结果的图5(b)中发现尽管在周围有零星的白点,那可能是一些不可避免的干扰,总体来看白色区域集中在目标区域中,这样更加确定光流点分布的精确度比较高。最后的结果如图5(c)所示,检测结果符合要求。
比较经过两种图像信息处理方法处理的结果很明显地看出,SAD算法与光流法结合的方法效果很好。SAD算法不仅计算出相邻两帧图像存在一致的运动偏移,还根据该偏移矢量消除了视频序列帧间出现的偏差,使车辆前方目标车辆区域的检测很明确,并且将旁边车道上的运动车辆区域独立地检测出来,如图5(c)所示。另外,在SAD算法运用的过程中,就将运动区域与非运动区域加以分开,如图5(a)所示,在后面光流运算过程中可以仅在运动区域检测动态目标的信息,如此就可以减少运算量,在实时性上有一定的提高。本文主要是在比较理想的背景下运用软件仿真检测的,对于复杂背景下不是太合适,但也是对这方面的一个探索,在此基础上我们还会研究更进一步的方法来适应复杂背景下运动车辆的目标检测问题。
References)
[1]BARON J, FLEET D,BEAUCHEMIN S. Performance of Optical Flow Techniques[J].International Journal of Computer Vision,1994,12(1):43-77.
[2]COLLINS R,LIPTON A,KANADE T,et al. A System for Video Surveillance and Monitoring[R]. CMU-RITR-00-12,2000.
[3]FEJES S,DAVIS L S. What Can Projections of Flow Fields Tell Us About the Visual Motion[C]. Proc of the 6th International Conference on Computer Vision,1998:979-986.
[4]HARITAOGLU I,HARWOOD D,DAVIS L W. Real-Time Surveillance of People and Their Activities[J].IEEE Trans Pattern Analysis and Machine Intelligence,2000,22(8):809-830.
[5]PARAGIOS N,DERICHE R. Geodesic Active Contours and Level Sets for the Detection and Tracking of Moving Objects[J]. IEEE Transactions on Pattern Analysis and Machine Interface,2000,22(3):266-280.
[6]LIPTON A,FUJIYOSHI H,PATIL R. Moving Target Classification and Tracking from Real-Time Video[C].Proceedings Fourth IEEE Workshop on Applications of Computer Vision. WACV'98 (Cat. No.98EX201). U.S.:Princeton,NJ,1998:8-14.
[7]向友君,雷娜,余卫宇,等. 运动估计算法匹配准则研究[J].计算机科学,2009,36(9):279.
Xiang Youjun,Lei Na,Yu Weiyu,et al .Research of Block Matching Criterion for Motion Estimation[J].Computer Science. 2009,36(9):279.(in Chinese)
[8]GROSSBERG S,MINGOLLAA E. Neural Dynamics of Visual Motion Perception:Local Detection and Global Grouping[C]. Carpenter G A,Grossberg eds.Neural Networks for Vision and Image Processing.Massachusetts:MIT Press,1992:293-842.
[9]LUCAS B,KANADE T. An Iterative Image Registration Technique with an Application to Stereo Vision[C]. Proc.of DARPA IU Workshop,1981:121-130.
[10]HORN B K,SCHUNCK B G. Determining Optical Flow[J]. Artificial Intelligence,1981,17(1-3):185-204.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!