时间:2024-07-28
傅子秋,张晓龙,余 成,梁 丹,梁冬泰*
多场景下基于快速相机标定的柱面图像拼接方法
傅子秋1,张晓龙2,余 成3,梁 丹1,梁冬泰1*
1宁波大学机械工程与力学学院,浙江 宁波 315211;2上海浦江桥隧运营管理有限公司,上海 200023;3宁波诠航机械科技有限公司,浙江 宁波 315200
针对目前利用相机标定参数进行图像拼接的方法存在受场景限制大、标定过程复杂而耗时长的问题,提出一种多场景下基于快速相机标定的柱面图像拼接方法。首先,利用棋盘格标定板角点特征提取精度高的特点,使其分别位于两两邻接图像的重叠视场中,对该图像序列依次进行角点提取、精确化和匹配等预处理,以准确快速求解出待拼接图像间的配准参数;然后利用标定得到的配准参数快速拼接图像,通过柱面投影以保持图像的视觉一致性,并采用多频段融合以保留图像的细节信息;最后,将整个系统搭建在低功耗嵌入式平台,实现可在多场景下完成快速标定及基于标定参数的拼接过程。实验结果表明,该文方法在室内及隧道等场景下可准确快速完成相机标定,图像拼接过程耗时短,同时可保证较高的拼接精度和较好的成像效果,具有较强的鲁棒性。
图像拼接;相机标定;柱面投影;多频段融合
图像拼接是将同一场景中具有重叠视场的两幅或者多幅图像组合,以产生一幅无缝全景图或高分辨率图像的过程[1],经过拼接所获得的图像有较大的视场(field of view,FOV)。绝大部分相机视场角约35°×50°,信息获取受限。因此,通过图像拼接,将同一场景的连续图像序列进行拼接,形成具有更大视场的合成图像,可一次性获取给定视点处的全部视觉信息。该技术在地质勘测[2-3]、医学影像[4-5]以及虚拟现实[6]等多个领域中发挥着重要的作用,其技术优势明显。
国内外研究者对图像拼接进行了大量研究,图像配准是其关键步骤,目前主要有基于频域、基于灰度和基于特征点的三种经典配准方法[7]。Szeliski[8]于1996年提出利用图像频域特性进行图像拼接的算法,通过傅里叶变换计算图像间位移的横向功率谱来实现图像匹配,成为全景图拼接的经典算法。Zou等[9]提出一种基于时空域流形的视频序列图像拼接算法,对视频序列图像拼接十分有效,拼接结果良好。Li等[10]提出了一种基于尺度不变特征变换(scale-invariant feature transform,SIFT)的算法,在确保拼接全景图像没有缺失的同时,还减少了整个拼接过程的时间。Wu等[11]在SIFT的基础上针对汽车后视图像系统使用渐变进出的融合算法,计算时间更短、图像细节特征更完整。2016年,Zhou等[12]针对钢旋转件缺陷检测图像的特征,提出了一种基于坡度概率测度和RANSAC算法,并利用SIFT进行特征跟踪和提取的图像拼接方法,得到无缝、清晰的零件表面图像,为金属零件表面缺陷的自动精确检测奠定基础。Alomran和Chai[13]通过检测图像重叠区域,自动对齐并融合拼缝以创建无缝全景图像。该算法可对最小5%的重叠面积、水平或垂直旋转以及非固定轴获取的多幅输入图像进行正确拼接。上述图像配准算法普遍存在计算量大、执行效率低下的问题。对此,有国内研究者提出基于相机标定的方法[14-16],节省了绝大部分拼接所需的时间,并获得较高的拼接精度。
但目前基于相机标定的拼接方法受场景限制较大,标定过程复杂;且经图像变换后会破坏成像中的共线条件,不利于后续的图像处理和信息归类。为此,提出一种多场景下基于快速相机标定的柱面图像拼接方法,该方法充分利用棋盘格标定板的特征提取精度高的特点,将其置于两两邻接图像的重叠视场中,对采集的图像序列依次进行角点提取、精确化和匹配等预处理,以准确快速求解出待拼接图像间的配准参数,进而迅速完成图像拼接。采用柱面投影和多频段融合方法使图像保持视觉一致性和保留细节信息。系统建立在低功耗嵌入式平台上,实现了可在多场景下相机标定参数的快速获取及准确拼接。经实验验证,该方法标定过程简单快速且准确,拼接精度高,成像效果好,对于在固定先验场景(大范围的视觉实时监控、医疗影像等)及特征点稀少的隧道场景等图像拼接技术上的应用具有积极意义。
本算法可分为标定参数获取和柱面图像拼接两个步骤。第一步是利用棋盘格标定板进行快速相机标定,得出相邻图像间的配准参数;第二步先将图像投影到柱面上,再由标定参数进行配准完成图像拼接,获得一幅高质量的拼接图像。
标定参数获取分为两个过程(如图1),过程1先对邻接图像进行角点的检测、亚像素精确化及匹配,利用匹配的角点坐标来计算单应性矩阵,再结合焦距评估计算出像素焦距。过程2以该焦距为半径做柱面投影变换得出柱面图像,对柱面图像再次预处理及计算更新,得出配准图单应性变换后的四个顶点坐标,最后获取调整变换后的单应性矩阵´和拼接图像的平移向量。
图1 标定参数获取流程图
2.1.1 成像的几何模型
针孔成像模型[17-18]具有很好的紧凑性,建立几何模型如图2所示,被摄体经透镜汇聚于一点(光心)后,其倒影映射到成像平面上。为了便于观察和研究,假设成像平面位于针孔和被摄体之间,被摄体成像方向与实际方向一致。
图中相机坐标系camcamcam的原点cam为光心,camcam平面与成像平面平行。cam轴为光轴,光心与光轴的距离即为焦距。图像直角坐标系imgimg和像素直角坐标系都在成像平面上,图像坐标系原点img的像素坐标值为(u,v)。各坐标系间的转换关系为
图2 针孔成像几何模型
图3 图像投影变换三维示意图
2.1.2 单应性矩阵计算
根据建立的成像模型,需计算图像平面间像素点间的映射关系,实现图像的配准。平面间的对应关系可通过单应性(Homography)变换[19]来确定。三维空间中两图像平面间的变换如图3所示,相机在两相邻位姿拍摄得到图像1和图像2(配准图像),可用一个非奇异的3×3的矩阵对其映射进行描述,将配准图像平面变换至基准图像平面上。
式中:为表示尺度因子,为单应性矩阵。
单应矩阵只有8个自由度,采用线性变换进行求解,将式(2)展开并写成矩阵形式为
式中:为矩阵的向量形式,因而需求解8个未知变量,也就需要4对匹配点(每3个点不共线),通常为了精确结果会使用远大于4个点对来进行计算。此时式(3)中的变成一个多行的矩阵。因此,需要求解超定方程组=0,通过齐次线性最小二乘法[20]对该方程组进行求解,即对进行奇异值分解,无需解方程组即可得到,它取值于最小奇异值对应的最右侧奇异向量,将重新排列后得出单应性矩阵。
2.1.3 像素焦距计算
由式(2)和式(5)可知:
旋转矩阵12属于标准的正交矩阵,它的行向量和列向量都是两两正交的,且每个行向量和列向量都是单位向量,则有:
上式得到两个2的值,采用OpenCV[22]图像拼接算法中的焦距评估,比较两个2分式形式中分母绝对值的大小,如果前者大于后者,则取两个2的值中的较大者,反之取较小者。
同理可得到相机的位姿1处的像素焦距1。
该图像拼接过程如图4,是基于标定得到的配准参数。首先采集图像序列,通过设计的自适应工业相机对焦转台装置,根据预设的值依次改变相机的位姿和焦距并触发相机采图,每完成一幅图像采集则进行柱面投影变换,采图和图像变换处理分节点独立进行,效率较高。图像采集数量达到预定值后,采图结束。随后依次读取变换后的图像序列,利用标定得到的变换矩阵´进行单应性变换。选取序列中间图像为基准图像,其余的为配准图像,利用标定得到的平移向量拼接图像,再对拼接后的图像利用多频段融合方法消除拼缝线。最后将融合后的图像更新替换为新的基准图像,依次与配准图像拼接融合得到全景图。
2.2.1 柱面投影变换
由于进行图像拼接的原始图像是现实场景在各自观察方向所对应的视平面上的投影,如果对含有重叠区域的原始图像直接进行配准并拼接,使得我们得到的图像序列的二维投影的坐标系产生差异,这将会破坏现实场景的全景视觉属性,得到图像畸变的全景图拼接结果。而柱面投影变换[23]是将现实场景投影到一个以固定视点为中心的假想圆柱体表面,通过将图像投影到统一坐标系下以像素焦距为半径的柱面上进行拼接,能够维持现实场景中的空间约束关系,从而在后面的拼接过程中保持全景视觉的一致性。柱面投影示意如图5所示。
图4 图像拼接算法框图
而成像处于二维平面上,因此还需将柱面图像反变换至平面上。将点¢转换至相机坐标系中:
图5 柱面投影示意图
图6 柱面投影示意图
Fig. 6 The sketch of cylindrical projection transformation
2.2.2 单应性变换
单应性变换是将一个平面内的点映射到另一个平面内的二维投影变换,通过标定过程计算图像平面间对应关系,将相邻两幅柱面反变换后的图像进行单应性变换,使得相邻图像的重叠部分在二维平面上保持相同尺度。单应性矩阵获取原理及实现如上文标定过程描述,该矩阵(8个自由度)各参数的作用如表1所示。
2.2.3拼接图像
相邻图像经透视变换后已处于相同平面,利用标定好的平移向量,将配准图像所有像素点进行平移,与基准图像相应配准像素点重合拼接,未融合的图像拼接如图7所示。图中红框为配准图经透视变换后的边界轮廓,经调整和平移变换后已位于指定拼接位置。
在拼接时选取最右侧图像为基准图像,其左边相邻的图像配准图像,利用标定出的平移向量拼接至基准图上。将拼接好的图像融合后更新为基准图像,重复上述过程可完成拼接。
2.2.4 图像融合
拼接后图像间的衔接不自然,需对其进行融合。像素加权平均法最为简单直接,而在复杂场景容易产生ghost区域,可以通过多特征融合的背景建模方法[25]提高其适应性,但会导致目标局部不完整现象。采用Brown和Lowe[26]提出的多频段融合方法,通过建立拉普拉斯金字塔(Laplacian pyramid,LP),将待拼接图像分别分解到不同的空间频带上,在各空间频率层上分别进行合并融合,可使各个频带上的特征与细节都保留并融合在一起。
表1 单应性矩阵参数介绍
图7 拼接图像示意图
图8 多频段融合示意图
融合过程如图8所示,该融合方法需先建立待拼接图像的高斯金字塔,然后用高斯金字塔的每一层图像,减去其上一层的扩展图像(完成上采样并高斯卷积)得到LP,再将重叠区域的LP相同层采用加权平均的方法进行合并。最后将合并后的LP从顶层开始进行扩展,将其扩展图像与下一层的合并LP图像相加得到下一层的融合图像,逐层递推完成图像重构。
为在实际环境中验证拼接方法,搭建了如图9所示的硬件系统实验平台,分别在室内和隧道场景中进行相机标定和图像拼接,并与其它图像拼接方法进行了拼接时间和拼接精度的对比分析。通过实验对本方法进行误差分析,并功能模块化于隧道巡检机器人中,在杭州文一路隧道和上海四平路隧道试行,进而验证拼接系统的稳定性。
为了使该方法更具灵活性、通用性,将整个拼接系统模块化,建立在低功耗嵌入式平台上(如图10)。其既执行舵机运动和相机采图的底层控制,又作为上位机在Linux下实现相机标定和图像拼接算法,同时还通过串口和ROS(robot operating system)实现各功能模块的通信,从而实现快速的相机标定,且适用于多种场景。
该实验还设计了一套工业相机自适应调焦的装置,镜头调焦圈外接齿轮与舵机转盘上的齿轮啮合,舵机用L型连接件固定于相机架上,整个装置随转台转动。这套装置可由嵌入式平台进行自适应调焦,以解决工业相机景深不足的问题。
低功耗嵌入式平台搭载ARM Cortex-A57内核;采用大面阵工业相机,分辨率和帧率分别为4096´3000和9 fps,搭配焦距25 mm工业定焦镜头;舵机的最小角度0.088°,转台和调焦舵机的空载转速分别为63 rpm和55 rpm,静止扭矩分别为6.0 N×m和2.5 N×m;结构件采用3D打印和钣金加工。
分别在室内和隧道场景中由该系统拼接完成的全景图如图11(a)和11(b)所示,其拼接相关参数如表2所示,只需进行一次标定,获取图像拼接过程中所需的各图像间配准参数,进而大量减少图像拼接所需的时间,且该系统建立在低功耗嵌入式平台上,当标定点位置和姿态与工作点位置和姿态不同时,可快速完成相机标定参数的获取。
图9 硬件系统图
图10 实验平台
图11 拼接结果。(a) 室内拼接图;(b) 隧道拼接图
硬件系统在已完成相机标定的前提下,每采好一张1200万像素的图耗时0.83 s,该过程包括转台转位、舵机调焦和相机SDK软触发采图,执行图像拼接算法耗时1.24 s。从接受拼接指令开始到完成一整套拼接流程总共9.64 s(以8张图为例),各部分所用时间如图12所示。整个拼接过程由多个节点独立执行,各部分互不影响。
在相同的硬件设备和图像数据条件下,与文献[4]的利用OpenCV和文献[17]基于SIFT的拼接方法进行实验对比如表3所示,表中数据分别以两幅相邻图像拼接得出,每组数据为10次实验平均值。
由于拼接源图像分辨率高,在拼接过程计算量大,从而耗时相对较长。采用低分辨率的CCD相机进行实验,通过本文方法完成两幅分辨率为640 pixels´360 pixels的图像拼接仅需0.0113 s,而采用OpenCV拼接方法和基于SIFT方法完成拼接分别需要0.2321 s和0.7863 s。综上可知,在相同硬件设备和图像数据条件下,拼接两幅4096 pixels×3000 pixels的图像,OpenCV平均耗时为1.533 s,基于SIFT的拼接方法平均耗时为8.5488 s,本文方法平均耗时为0.1854 s,明显快于OpenCV和基于SIFT的拼接方法。
由于OpenCV中的图像拼接算法复杂,对于图像间特征点的检测、匹配筛选和查找最优拼缝线进行融合,都要进行大量的计算,因此需花费大量的时间;基于SIFT的图像拼接方法虽然使得图像间配准更精确,但在图像特征检测过程中检测到的特征点数目巨大,图像配准过程耗时长;而本文的方法只需执行相机标定,可快速获取拼接配准参数,随后由标定参数配准图像,极大地提高了图像拼接速度。本文方法的拼接速度是OpenCV的8倍,而对比基于SIFT的拼接方法的运行速度更是有45倍,具有非常大的提升。
表3 图像拼接速度对比
图12 拼接过程时间柱状图
对含有重叠区域的原始图像直接进行配准并拼接结果如图13所示,该结果由5幅图像进行拼接融合得到。图像中本来是直线的边缘轮廓,由于直接配准进行变换后产生的非一致性,在拼接得出的全景图中成为折线,破坏了现实场景的全景视觉属性,得到图像畸变的全景图像,成像效果差。
与图11对比可知,柱面拼接结果基本无扭曲,能够较好地保持视觉一致性。采用的多频段融合方法使得拼缝自然衔接,无重影和移位等现象,具有较好的成像效果,能够满足实际需求。
本实验的拼接质量依赖于相机标定参数的准确度,而影响标定过程的主要是相机机械安装误差和标定板放置的位置。将以标定后得到像素焦距和拼接平移值L作为标定误差指标,它们分别影响图像配准和拼接融合的精度,分别从相机欧拉角中的pitch(倾斜)和roll(滚动)旋转方向对其安装位置和标定板在图像重叠视场位置进行误差分析。
本实验通过二维旋转微距云台分别对相机roll方向(图14(a))和pitch方向(图14(b))的误差进行分析,云台底座固定在支撑架上,并在90°的位置锁紧使云台旋转活动座保持竖直,以实现相机pitch方向下的转动。安装支架与云台快装板连接固定,相机随着云台在roll方向下转动,从而达到控制实验变量的目的。
3.5.1 相机roll方向下旋转误差
锁紧云台的旋转活动座使相机pitch方向保持水平,旋动云台控制相机roll方向下的旋转,每旋转1.5°取一组数据进行标定,得到对应的像素焦距和平移向量中的横向平移值L,如图15所示。
图13 无柱面投影变换拼接结果
图14 Roll方向(a)和pitch方向(b)下旋转平台
图15 Roll方向像素焦距(a)和平移值(b)实验结果
由图15可知,像素焦距在11238 pixels到13008 pixels范围内,最大的误差为15.75%,导致在图像配准过程中变换尺度大,容易造成图16(a)中的图像畸变,该图由相机在roll方向下旋转15°标定并拼接得到,图16(b)为相机水平实验结果,图中红框为图像经处理变换后的轮廓。通过对比,相机在roll方向下旋转误差极大影响成像效果,且多幅图像拼接会进行累加。对于拼接平移值L保持3200 pixels上下微动,其误差在3%以内,即对图像拼接融合影响很小,能够使图像间自然衔接无拼缝,保证高的图像拼接精度。
3.5.2 相机pitch方向下旋转误差
锁紧云台使相机在roll方向保持水平,旋动活动座来控制相机pitch方向下的旋转,每旋转1.5°取一组数据进行标定,得到对应的像素焦距和平移向量中的横向平移值L,如图17所示。由图可知,的最大误差接近至9.17%,而L的误差保持在0.8%以内,表明相机pitch方向下旋转误差对标定过程图像变换有一定影响,相机在pitch方向转过15°的拼接结果如图16(c)所示,该图只有视场角整体发生了变化,并不影响成像效果,且对于拼接融合几乎无影响。
3.5.3 棋盘格标定板放置位置影响
单应性矩阵由匹配的棋盘格角点计算得出,使单应性变换以图像上标定板附近区域为基准进行配准,而在远离标定板的位置图像变换尺度大,造成配准误差,从而导致相同场景像素点不重合的现象。分别改变标定板在两相邻图像重叠视场中横向和纵向位置,进行标定及拼接实验,标定得出的数据如表4,表中为棋盘格中心角点位于图像重叠区域的横向像素坐标值,取值为640 pixels、500 pixesl和350 pixels分别表示标定板位于图像重叠区域的靠右侧、中间和靠左侧,而值则表示棋盘格在图像重叠区域竖直方向的位置。
图16 Roll和pitch方向拼接结果对比
图17 Pitch方向像素焦距(a)和平移值(b)实验结果
表4 标定板放置位置误差分析
图18 标定板不同位置的拼接结果
通过表中数据可知,在横向位置=500 pixels情况下,改变标定板纵向位置使像素焦距值误差最高达到12.66%,而取值为500 pixels和350 pixels时,该误差分别达到16.55%和17.06%。即标定板越偏离重叠区域中心图像配准误差越大,使远离标定板的像素点间产生偏移错位(见图18)。以同样方式分析其对横向平移值L的影响,误差保持在0.6%以内,即对图像拼接融合几乎不产生影响。根据实验结果可得出,标定板需位于图像重叠区域中间位置来保证图像配准精度,并实现图像准确拼接与融合,达到较好的成像效果。
基于相机标定的图像拼接方法不受环境光照条件影响,在不失精度的前提下具有较强的鲁棒性,利用标定参数来代替图像配准过程,可有效减少图像拼接所需的时间。本文提出的基于棋盘格的快速相机标定的柱面图像拼接方法在此基础上简化标定过程,标定方便快速、不受场景限制。采用柱面投影变换,将图像投影在圆柱面上进行拼接,能够保持视觉一致性,具有较好的成像效果。通过室内和隧道(无特征点)场景中实验分析,验证了本文方法的可行性。实验结果表明该方法能够快速准确获取标定参数,与其它图像拼接方法相比,拼接时间较少,不存在重影和移位现象,具有较高精度。本文方法依赖于标定参数,连接件的加工误差以及安装精度误差会影响标定过程,产生偏差,使得图像变换的尺度过大,影响成像效果。因此,可与多相机结合设计一套稳定的拼接系统,实现对无特征点或环境变化大的实时图像拼接。
[1] Adel E, Elmogy M, Elbakry H. Image stitching based on feature extraction techniques: a survey[J]., 2014, 99(6): 1–8.
[2] Cheng Y F, Jin S Y, Wang M,. Image mosaicking approach for a double-camera system in the GaoFen2 optical remote sensing satellite based on the big virtual camera[J]., 2017, 17(6): E1441.
[3] Bosch J, Gracias N, Ridao P,. Omnidirectional underwater camera design and calibration[J]., 2015, 15(3): 6033–6065.
[4] Chen C T, Pan Z W, Shen H L,. Image stitching and partitioning algorithms for infrared thermal human-body images[J]., 2019, 46(9): 180689.
陈晨涛, 潘之玮, 沈会良, 等. 一种人体热红外图像拼接及部位划分方法[J]. 光电工程, 2019, 46(9): 180689.
[5] Kaynig V, Fischer B, Müller E,. Fully automatic stitching and distortion correction of transmission electron microscope images[J]., 2010, 171(2): 163–173.
[6] Wu L P, Hu Y. Virtual reality technology of image smoothing in cylindrical panoramic image mosaic[J]., 2017, 17(31): 271–276.吴丽萍, 胡郁. 柱面全景图图像拼接中图像平滑的虚拟现实技术[J]. 科学技术与工程, 2017, 17(31): 271–276.
[7] Seo S, Jeonz S, Lee S. Efficient homography estimation method for panorama[C]//, 2013: 209–212.
[8] Szeliski R. Video mosaics for virtual environments[J]., 1996, 16(2): 22–30.
[9] Zou L H, Chen J, Zhang J,. An image mosaicing approach for video sequences based on space-time manifolds[C]//, 2010.
[10] Li L N, Geng N. Algorithm for sequence image automatic mosaic based on sift feature[C]//, 2010.
[11] Wu Z W, Zhu L R, Sun X C. Expansion of the visual angle of a car rear-view image via an image mosaic algorithm[J]., 2015, 54(5): 053101.
[12] Zhou A W, Shao W, Guo J J. An image mosaic method for defect inspection of steel rotary parts[J]., 2016, 35(4): 60.
[13] Alomran M, Chai D. Feature-based panoramic image stitching[C]//, 2016.
[14] Zhang J L, Sun H X, Jia Q X,. Image mosaic algorithm based on camera calibration[J].(), 2008, 29(6): 575–579.
张金玲, 孙汉旭, 贾庆轩, 等. 基于相机标定的图像拼接算法[J]. 中北大学学报(自然科学版), 2008, 29(6): 575–579.
[15] Wang D, Liu F Y, Chen T E,. The method of cylinder panoramic image mosaic based on camera calibration parameters[J]., 2016, 41(7): 150–154, 143.
王冬, 刘凤英, 陈天恩, 等. 一种相机标定参数的柱面全景影像拼接方法[J]. 测绘科学, 2016, 41(7): 150–154, 143.
[16] Ma J L, Zhang J M, Sun W X. Research on panoramic image mosaic method based on camera calibration[J]., 2017, 29(5): 1112–1119.
马嘉琳, 张锦明, 孙卫新. 基于相机标定的全景图拼接方法研究[J]. 系统仿真学报, 2017, 29(5): 1112–1119.
[17] Zhang Z Y. Flexible camera calibration by viewing a plane from unknown orientations[C]//, 1999.
[18] Hartley R, Zisserman A.[M]. Cambridge university press, 2003
[19] Chuan Z, Long T D, Feng Z,. A planar homography estimation method for camera calibration[C]//, 2003.
[20] Lenth R V. Least-squares means: the R package lsmeans[J]., 2016, 69(1): 1–33.
[21] Janota A, Šimák V, Nemec D,. Improving the precision and speed of euler angles computation from low-cost rotation sensor data[J]., 2015, 15(3): 7016–7039.
[22] Pulli K, Baksheev A, Kornyakov K,. Real-time computer vision with OpenCV[J]., 2012, 55(6): 61–69.
[23] Xu Y, Zhou Q H, Gong L W,. High-speed simultaneous image distortion correction transformations for a multicamera cylindrical panorama real-time video system using FPGA[J]., 2014, 24(6): 1061–1069.
[24] Guo H X, Guo H L, Xie K. Improved bilinear interpolation algorithm based on edge information[J]., 2011, 47(31): 171–174. 郭海霞, 郭海龙, 解凯. 基于边缘信息改进的双线性插值算法[J]. 计算机工程与应用, 2011, 47(31): 171–174.
[25] Guo Z C, Dang J W, Wang Y P,. Background modeling method based on multi-feature fusion[J]., 2018, 45(12): 180206.
郭治成, 党建武, 王阳萍, 等. 基于多特征融合的背景建模方法[J]. 光电工程, 2018, 45(12): 180206.
[26] Brown M, Lowe D G. Automatic panoramic image stitching using invariant features[J]., 2007, 74(1): 59–73.
Cylindrical image mosaic method based on fast camera calibration in multi-scene
Fu Ziqiu1, Zhang Xiaolong2, Yu Chen3, Liang Dan1, Liang Dongtai1*
1Faculty of Mechanical Engineering and Mechanics, Ningbo University, Ningbo, Zhejiang 315211, China;2Shanghai Pujiang Bridge and Tunnel Operation Management Co., Ltd, Shanghai 200023, China;3Ningbo Hermeneutic Aircraft Machinery Technology Co., Ltd, Ningbo, Zhejiang 315200, China
The experiment platform
Overview:Image mosaic is the process of combining two or more images with an overlapping field of view in the same scene to produce a seamless panorama or high-resolution image. The image obtained by mosaic has a larger field of view (FOV). Most of the cameras have a FOV angle of about 35´50 degrees, which limits the acquisition of information. Therefore, through image mosaic, the continuous image sequence of the same scene is stitched to form a composite image with a larger FOV, which can obtain all visual information at a given point of view at one time. This technology plays an important role in many fields, such as geological survey, medical minimally invasive surgery, and virtual reality. Its technical advantages are obvious. Researchers at home and abroad have done a lot of researches on image mosaic, and image registration is the key step. At present, there are mainly three classical registration methods based on frequency domain, gray level, and feature points, respectively. Nevertheless, the above image registration algorithms generally have the problems of large computational load and low execution efficiency. In this regard, some domestic researchers have proposed a camera calibration method, which saves most of the time needed for stitching and achieves high stitching accuracy.
But at present, the mosaic algorithm based on camera calibration is limited by the scene, and the calibration process is complex. The collinear condition in imaging will be destroyed after image transformation, which is not conducive to subsequent image processing and information classification. For this reason, a cylindrical image mosaic method based on fast camera calibration in multi-scene is proposed. This method makes full use of the high accuracy of feature extraction of checkerboard calibration board, which is used to make it in the overlapping field of view of two adjacent images. In order to accurately and quickly solve the registration parameters between the images to be spliced, the image sequence is pre-processed by corner extraction, precision and matching. Then, cylindrical projection and multi-band fusion are used to maintain visual consistency and detailed information. The system is based on a Low-Power Embedded platform, which achieves fast acquisition and accurate mosaic of camera calibration parameters in multi-scene. The experiment results show that the proposed method can accomplish camera calibration quickly and accurately in indoor and tunnel scenarios, and the image mosaic process is time-consuming. Meanwhile, it can ensure better stitching accuracy and imaging effect, and has strong robustness.
The proposed method has positive significance for real-time image stitching without feature points or large environmental changes.
Citation: Fu Z Q, Zhang X L, Yu C,. Cylindrical image mosaic method based on fast camera calibration in multi-scene[J]., 2020,47(4): 190436
Cylindrical image mosaic method based on fast camera calibration in multi-scene
Fu Ziqiu1, Zhang Xiaolong2, Yu Chen3, Liang Dan1, Liang Dongtai1*
1Faculty of Mechanical Engineering and Mechanics, Ningbo University, Ningbo, Zhejiang 315211, China;2Shanghai Pujiang Bridge and Tunnel Operation Management Co., Ltd, Shanghai 200023, China;3Ningbo Hermeneutic Aircraft Machinery Technology Co., Ltd, Ningbo, Zhejiang 315200, China
A cylindrical image mosaic method based on fast camera calibration in multi-scene is proposed to solve the problems of scene limitation and complex calibration process in image mosaic using camera calibration parameter. Firstly, the accurate corner feature of checkerboard calibration board is used to make it in the overlapping field of view of two adjacent images. Then, the image sequence is pre-processed by corner extraction, precision and matching, so that the registration parameters between the images to be stitched can be solved accurately and quickly. After that, the cylindrical projection is used to maintain the visual consistency of the images, and the multi-band fusion is used to retain the details of the images. Subsequently, the images are stitched using registration parameters obtained by calibration. Finally, the whole system is built on a low-power embedded platform to accomplish fast calibration and mosaic process based on calibration parameters in multi-scene. The experiment results show that the proposed method can accomplish camera calibration quickly and accurately in indoor and tunnel scenarios, and the image mosaic process is time-consuming. Meanwhile, it can ensure better stitching accuracy and imaging effect, and has strong robustness.
image mosaic; camera calibration; cylindrical projection; multi-band fusion
National Natural Science Foundation of China (51805280), the Public Technology Application Project of Zhejiang (2017C31094), and Natural Science Foundation of Zhejiang (LQ18E050005)
* E-mail: liangdongtai@nbu.edu.cn
TP317.4
A
傅子秋,张晓龙,余成,等. 多场景下基于快速相机标定的柱面图像拼接方法[J]. 光电工程,2020,47(4): 190436
: Fu Z Q, Zhang X L, Yu C,Cylindrical image mosaic method based on fast camera calibration in multi-scene[J]., 2020, 47(4): 190436
10.12086/oee.2020.190436
2019-07-24;
2019-11-29
国家自然科学基金青年基金资助项目(51805280);浙江省公益性技术应用研究计划(2017C31094);浙江省自然科学基金资助项目(LQ18E050005)
傅子秋(1995-),男,硕士,主要从事机器人感知与操控、机器视觉图像处理的研究。E-mail:fuziqiuno1@163.com
梁冬泰(1981-),男,博士,副教授,主要从事工业视觉检测、机器人感知及操控技术的研究。E-mail:liangdongtai@nbu.edu.cn
版权所有©2020中国科学院光电技术研究所
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!