时间:2024-05-04
何龙 李东 王艳林 谭启蒙
摘 要: 空间机械臂需要在空间站外表面进行移动来实现表面巡检或抵达目标位置执行空间任务,需要通过对合作靶标的测量来获取空间机械臂与合作靶标间的位姿信息,因此设计出一种合理可靠的合作靶标尤为关键。提出一种合作靶标,针对该合作靶标提出一种识别及特征点定位算法,利用相机和合作靶标对算法进行验证。实验结果表明,该算法可在0.5~3.0 m的距离内准确识别出合作靶标,特征点的坐标定位精度可达到0.005 2 mm,算法快速、稳定,抗干扰能力强。
关键词: 空间机械臂; 单目视觉; 合作靶标; 目标识别; 位姿信息; 坐标定位
中图分类号: TN967?34; V19 文献标识码: A 文章编号: 1004?373X(2018)13?0106?05
Abstract: Since the space manipulator has to move outside the surface of the space station to realize the surface inspection or arrive to the object position to execute space mission, and the pose information between space manipulator and cooperative target marker should be acquired by measuring the cooperative target marker, the design of a reasonable and reliable cooperative target marker is particularly important. Therefore, the design of a cooperative target marker, and an algorithm for the cooperative target marker recognition and feature point location are proposed. The algorithm was verified by means of camera and cooperative target marker. The experimental results show that the algorithm can recognize the cooperative target marker successfully within 0.5~3.0 m, has fast and stable recognition performance and strong anti?interference ability, and the coordinate positioning accuracy of the feature point can reach up to 0.005 2 mm.
Keywords: space manipulator; monocular vision; cooperative target marker; target recognition; pose information; coordinate location
1957年10月4日,随着人类第一颗人造地球卫星的成功发射,人类的探索正式由地球拓展到了太空。科技的不断进步使得人类太空探索能力也在突飞猛进的发展。其中空间站的发展是太空探索的一个重要标志。空间站的组装组建、宇航员出舱活动的辅助活动、维护维修以及外表面的巡检都需要借助于空间机械臂来完成。空间机械臂中的视觉测量系统作为空间机械臂伺服控制系统中的输入端,其测量精度直接影响着整个空间机械臂系统的控制精度,其重要性不言而喻[1]。
目前,美国在实现追踪航天器与目标航天器之间交会对接时,采用的合作靶标是由美国国家航空航天局研发的高级视觉制导传感器(AVGS),该系统使用激光和图像识别技术识别靶标,进而测量位姿[2]。此种靶标的实现需要采用两种不同波长的激光对其进行照射。此类靶标制作较为复杂,且在使用时需要一定外界条件的辅助,有一定的局限性。日本在实现货运飞船与空间站的交会对接时采用6个不同颜色的标志灯,其中有4个用于观察姿态,剩余2个于捕获时用。该靶标仍存在着制作及安装上的不便性。在中国,神舟飞船与天宫进行交会对接时采用十字形靶标,由宇航员人眼观测识别靶标,通过激光雷达系统实现最终的交会对接。该过程仍需要过多的人为参与,不能实现合作靶标的自动识别,大大影响交会对接的精准度及对接时间。
目前国际空间站采用非编码图案设计,通过在空间站外表面粘贴若干圆形标记点作为空间靶标图案[3],圆形标记点直径约为1 m。除此之外,在加拿大空间机械臂上也采用非编码空间标记图案[3],按照2行6列矩形方格的形式粘贴在机械臂上。借鉴上述两种合作靶标设计发现,采用视觉标记图案的形式设计靶标相比于美国及日本的靶标设计具有一定的先进性,制作简单,安装方便,环境适应性强,尤其是对于后期合作目标的位姿解算大大提高了其准确性,降低了难度。
1.1 靶标设计原则
实现靶标在图像中快速、准确识别提取,是整个位姿测量过程中的首要前提,本文设计靶标时考虑以下原则[3]:
1) 靶标要具有旋转、缩放唯一性。
2) 靶标设计时要采用相同规则的几何图形,图案设计切忌过于复杂。
3) 靶标图案要尽可能保持较高的对比度,以便于靶标在不同的背景光照环境中被准确识别。
4) 靶标设计要简单,以便于粘贴、安装于空间合作目标表面。
1.2 靶标设计
1.2.1 形状设计
设计合作靶标时,采用圆形图案,这也是目前应用最为广泛的一种空间视觉标记图案。这是因为其独特的自身优势:圆形具有各向同性的性质,有效避开了由于外界干扰所致的标记图案变形,从而影响特征点中心的识别及提取;而且图案中每一个独立的圆形图案均为中心对称分布,不会受到外界干扰的影响。
1.2.2 颜色设计
为了增强亮暗对比度,便于在周围环境中快速、准确地识别出合作靶标,图案中背景采用纯白色,图案中的圆点、圆环和线段采用纯黑色。
1.2.3 尺寸设计
在设计图案的尺寸时,需要考虑到在实际的物理距离中,相机采集到的图像中标记图案中的特征点能否被准确识别,也要考虑到后期特征点中心能否快速、准确提取,这里采用的特征点尺寸要综合考虑以上因素。靶标图案物理尺寸如图1所示(图中单位为mm)。
1.2.4 特征点数量选择
本文首先出于对位姿解算的考虑,原则上空间标记特征点的个数应为不小于4的任意整数,计算位姿的问题实际上是属于PnP问题(Perspective n?Point Problems,多点透视定位问题),根据文献[4]对PnP问题的研究,当n>5时,PnP问题有唯一解,通过迭代算法进行位姿估计,可以达到很高的精度,而且速度很快。又加以空间标记布局方面的考虑,本文采用7个特征点,可以使靶标图案实现水平方向上的对称,在图像旋转、缩放后具有唯一性。
1.2.5 整体布局
靶标整体设计时要尽量分散,以防靶标距离相机较远时,因成像问题图案之间会相互干扰,影响特征点的识别。合作靶标模型如图2所示。
图2中的圆环及圆环周围的三条直线为了便于在远程对接阶段,宇航员对靶标位置进行肉眼识别。其中7个特征点通过一定的空间结构进行排列,将圆环中的特征点命名为0号点,并以它为中心,左上角的点为1号点,按顺时针进行排序。之后通过这些点求解位姿。考虑到三维靶标在制作成本、难易程度等因素的制约,以及在位姿解算算法上的考虑,该靶标采用二维平面的方式设计。
本文在Windows7系统环境下,基于Matlab软件环境开发出合作靶标特征点图像坐标自动提取应用程序。该应用程序的算法流程图如图3所示。
2.1 图像预处理
由相机采集得到的是bmp格式图像,为了加快算法的处理速度,将bmp格式图像进行灰度化处理,得到灰度图像[I0(x,y)],如图4所示。之后针对该灰度图像采用分段线性灰度变换法进行图像增强处理,然后采用中值滤波法对[I0(x,y)]进行图像平滑处理,得到高质量有待下一步处理的图像[I1(x,y)],如图5所示。
2.2 图像分割
在图像处理分析过程中,更关心的是将图像中感兴趣的部分与其他部分进行分离并提取出来,这时便需要对图像进行分割。根据靶标图案的特性,各特征点为黑色,背景色为白色,并且均为连通区域。因此本文采用迭代法及均匀性度量法进行比较试验,试验结果表明,在图像的分割效果上两种算法均可,无太大差异,但在图像处理速度上,迭代法明显优于均匀性度量法,故本文采用迭代法进行图像分割处理,得到处理后图像[I2(x,y)],如图6所示。
圖像[I2(x,y)]中仍存有诸多小型闭合区域,剔除掉区域面积小于一定阈值的闭合区域后得到效果更佳的图像[I3(x,y)],如图7所示。
2.3 靶标图案区域提取
2.3.1 连通区域提取
[I3(x,y)]由多个连通区域构成,要提取的区域是像素值为0的连通区域,这里采用如下的连通域提取算法[5]:
1) 按照图像[I3(x,y)]大小创建一个新的位图[I4(x,y)],用来复制[I3(x,y)],从左上角[I3(0,0)]开始,以由上到下、由左至右的方式对图像进行扫描,若扫描到某点像素值[I3(x1,y1)=0],则从此处开始,采用八邻域边界跟踪法,对该点所在的区域进行轮廓跟踪,并生成链码表;
2) 将该链码表转换为水平或垂直方向上的线段表,如图8所示,并将该轮廓所包含区域内的所有像素点的值全赋值为0,直到该区域所有像素点的值均为0,则开始扫描下一区域,直到整幅图像全部扫描完毕为止。
2.3.2 圆度值判断
鉴于本文设计的合作靶标图案自身的形状特征,采用圆形设计,与背景图案差别较大,为了能更加准确、快速地从整幅图像中提取出靶标图案,这里采用基于区域的形状特征进行特征提取,通过圆度值进行靶标连通区域的判断。
圆形度[R0]用来描述连通区域形状接近圆形的程度,它是测量区域形状的常用量。其计算公式为:
通过上述一系列的判断,将不符合特征点圆度值范围的其他连通区域剔除掉之后,最终成功地将靶标图案从原图像中提取出来,如图10所示。由于后期位姿解算只需对靶标图案中的特征点进行中心定位,故剔除掉图案中的圆环及直线,得到只包含7个特征点图案的位图[I5(x,y)],如图11所示。
2.4 特征点中心定位
由于本文采用圆形空间标记图案,靶标中每一个独立圆形特征点均呈中心对称分布,鉴于该种靶标图案定位精度比较高,目前有许多圆形特征点的定位算法,例如椭圆拟合法、Hough变换法、灰度平方加权质心法等[3,6]。其中灰度平方加权质心法采用灰度值的平方作为加权值,该方法体现出离点中心较近且灰度值较大的像素点对于点中心位置的影响。相比较而言,灰度平方加权质心法整体性能最高,更适用于本文的研究。
该算法具有良好的鲁棒性,既适用于圆形区域像素灰度分布较为均匀的情况,也适用于像素在圆形区域中所占相对较少,亦或不规则的圆形区域。
灰度平方加权质心法是重心法的演变,其具体计算过程如下[7]:
首先,试验所用的是微视图像公司生产的MVC?1MM型号相机,采集到的图像为1 280×1 024 pixels的bmp格式图片,像元尺寸为5.2 μm。并利用同一型号相机每隔0.5 m从0.5~3.0 m距离采集上述靶标图案的图像信息,并将采集到的6幅图像保存至计算机。
其次,在Matlab软件平台中,针对不同距离采集的6幅图像调用前面介绍的靶标识别算法的软件程序,均成功实现了对靶标图案的提取,本文仅以1.5 m距离采集的图像为例。
最后,通过分别采用椭圆拟合法以及灰度平方加权质心法对提取到的特征点进行中心定位,以验证中心点定位算法的性能。
试验开始,用计算机系统自带的画图软件将原始图片放至最大,找到每个特征点中最亮的像素点,以此作为标准的中心坐标,以便于与用两种不同检测方法计算出来的中心点坐标做比较。按照图2所示将图像中的7个特征点由0~6编号,针对两种算法,与标准中心进行比对之后,[X]方向和[Y]方向上的坐标误差曲线如图12,图13所示。
采集图像所用相机像元尺寸为5.2 μm×5.2 μm,经过换算,图像中一个像素的实际物理距离为0.005 2 mm,所以在[X]方向上,灰度平方加权质心法最高定位精度可以达到0.005 2 mm,而椭圆拟合法定位精度最高仅能达到0.031 2 mm;对于[Y]方向,虽两种算法最高定位精度均可达到0.005 2 mm,但综合来看,灰度平方加权质心法定位精度范围更接近于0.005 2 mm。通过对比不难发现,椭圆拟合法定位的特征点中心变化更为剧烈,误差也更大,明显不如灰度平方加权质心法定位精度高。
分别计算由椭圆拟合法和灰度平方加权质心法得到的误差的均值和方差,如表1所示。
由表1的结果可以得出,灰度平方加权质心法的稳定性也要优于椭圆拟合法,相比之下,灰度平方加权质心法算法整体性能比较高,故在本系统中选用灰度平方加权质心法进行点中心定位。
本文为基于空间合作目标的三维位姿视觉测量技术研究系统中的一部分,研究前期采用张正友标定法对单目相机进行内部參数标定[8],标定靶标采用经由中国计量院标定过的棋盘格平面靶标。后期通过本文提取到的点中心坐标,采用POSIT算法通过迭代最终得到高精度的位姿参数估计。
本文总结了靶标图案设计的原则,并结合此原则设计了基于圆形图案的合作靶标,凭借着其自身各向同性,通过基于图形圆形度的特征提取方法,很容易地将靶标从图像中提取出来,通过对不同距离采集的图像进行验证,本算法可以满足空间合作目标三维位姿测量项目在0.5~3.0 m范围内准确识别合作靶标的要求,具有很强的实用价值。
针对点中心定位算法,对椭圆拟合法和灰度平方加权质心法分别进行对比试验。试验结果表明,灰度平方加权质心法因其具有算法速度快、定位精度高的特点,更加适用于本文的设计方案中。
由空间靶标设计及点中心定位算法共同构成的空间机械臂合作靶标系统方案,性能较好,稳定性较高,并与目前国际空间站上的成功应用案例有相近之处,可以为后期空间机械臂视觉测量系统中的三维位姿测量打下良好的基础。
[1] 初广丽.航天器合作靶标自动识别关键技术研究[D].长春:中国科学院研究生院(长春光学精密机械与物理研究所),2015:1?2.
CHU Guangli. Study on the key technologies of automatic identification for cooperative target on spacecraft [D]. Changchun: Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences, 2015: 1?2.
[2] 温卓漫,王延杰,邸男,等.空间站机械臂位姿测量中合作靶标的快速识别[J].航空学报,2015,36(4):1330?1338.
WEN Zhuoman, WANG Yanjie, DI Nan, et al. Fast recognition of cooperative target used for position and orientation measure?ment of space station′s robot arm [J]. Acta aronautica et astronautica sinia, 2015, 36(4): 1330?1338.
[3] 谭启蒙,胡成威,高升.空间非编码标记特征点中心定位方法与比较[J].航天器工程,2014,23(1):96?102.
TAN Qimeng, HU Chengwei, GAO Sheng. Design of non?coding pattern and centroiding location of feature points for spatial target [J]. Spacecraft engineering, 2014, 23(1): 96?102.
[4] 童张海.单目视觉空间目标位姿测量算法研究[D].哈尔滨:哈尔滨工业大学,2012:31?42.
TONG Zhanghai. Algorithm of relative pose estimation for space target based on monocular?vision [D]. Harbin: Harbin Institute of Technology, 2012: 31?42.
[5] 夏瑞雪,卢荣胜,刘宁,等.基于圆点阵列靶标的特征点坐标自动提取方法[J].中国机械工程,2010,21(16):1906?1910.
XIA Ruixue, LU Rongsheng, LIU Ning, et al. A method of automatic extracting feature point coordinates based on circle array target [J]. China mechanical engineering, 2010, 21(16): 1906?1910.
[6] 孙鹏,吕乃光,王博恩,等.视觉测量中圆形标志点的全场自动识别和提取[J].北京信息科技大学学报(自然科学版),2011,26(3):91?95.
SUN Peng, L? Naiguang, WANG Boen, et al. Automatic recognition and extraction of circle marked point in full images of photogrammetry [J]. Journal of Beijing Information Science and Technology University (natural science edition), 2011, 26(3): 91?95.
[7] 张广军.视觉测量[M].北京:科学出版社,2008:66?70.
ZHANG Guangjun. Vision measurement [M]. Beijing: Science Press, 2008: 66?70.
[8] 谭启蒙,胡成威,高升.空间机械臂视觉相机内参标定技术研究[J].航天返回与遥感,2013,34(6):74?80.
TAN Qimeng, HU Chengwei, GAO Sheng. Research on calibration of intrinsic parameters for space manipulator camera based on 2D planar [J]. Spacecraft recovery & remote sensing, 2013, 34(6): 74?80.
[9] SONG Limei, WANG Mingping, LU Lu, et al. High precision camera calibration in vision measurement [J]. Optics & laser technology, 2007, 39: 1415?1418.
[10] TRI C P, YONG S I, JA C K, et al. An enhanced edge tracking method using a low resolution tactile sensor [C]// 2012 International Conference on Computer Science and Electronics Engineering. [S.l.]: IEEE, 2012: 633?636.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!