时间:2024-05-04
,,, ,
(广东工业大学 机电工程学院,广东 广州 510006)
目前汽车精冲工件的检验方式是靠人工采用专用量具进行检验。例如,简单形状的冲压件的检测,通常采用通用检测器具如量规、卡尺等进行检测。对复杂零部件的检测需要采用如样板检具、投影仪等进行检测。这些检具存在着诸多功能限制,往往造成复杂零部件的某些部位不能精确检测。专用检具不具有通用性,不但增加了生产成本,而且对于复杂的曲面基本无能为力。
为此国内有学者对此类检测进行了大量研究改进。文献[1-3] 探讨了机器视觉检测技术,文献[4]则提出了一种视觉检测平台的设计。
本文基于机器视觉、激光检测、数字控制、DXF图纸解析、智能路径算法、图像拼接等技术,通过软硬件设计研发了一种新型检测技术及装备,能有效解决目前复杂零件精密测量难题。
本文研究的测量对象是尺寸范围在600 mm*600 mm*8 mm的复杂精冲件,采用固定检测对象,移动相机对准采样点进行采样的方案。为达到高精度的要求,在运动控制上使用X-Y-Z3个方向的精密伺服控制器,每个轴都安装了光栅尺,精度为2 μm/脉冲;X-Y平面测量采用500百万像素工业相机,设置的局部视场大小达到精度0.01 mm/像素;Z方向测量使用分辨率为5 μm的激光位置传感器;平台基底使用形变极小的标准大理石装夹水平台。系统整体设计如图1所示,其硬件架构如图2。
图1 整体设计
图2 硬件架构
检测流程大致为:
1) 导入并解析需要检测零件对应的DXF图纸文件(在缺少图纸文件时,为方便检测输入,设计了简单图形的手工绘制界面);
2) 依据相机视场大小和待采集参数,计算出每个采样点的坐标,通过X-Y轴精密伺服运动机构定位固定在Z轴上的检测头(相机和激光传感器)至采样点,依次进行拍照或者测距(或粗糙度);
3) 结合光栅反馈的位置坐标进行图像拼接,调用对应图像处理算法计算出尺寸参数,对比图纸文件中的标注信息计算误差并生成检测报表;
4) 将检测结果写入历史数据库,刷新SPC控制图。
由于需要照片分辨精度达到至少0.01 mm,即在使用分辨率为2 560*1 920像素的相机条件下,其宽度方向上的单像素识别精度应该≦0.01 mm,那么根据公式(1)可以得到相机采样视场:
h≤1 920*0.01=19.2 mm
w≤2 560*0.01=25.6 mm
(1)
由于相机不可避免存在镜头畸变,越靠近视场外沿畸变越大,并且畸变校正也会产生误差,所以为了后期处理使用畸变较小的图样,同时尽可能覆盖到更多零件信息,截取最大内接正方形80%的视场范围是比较合理的,那么有效采样视场利用公式(2)算出:
l有效=19.2*0.8=15.36 mm
(2)
即最大有效视场为15.36 mm*15.36 mm。
当采集大尺寸参数时,一个视场并不能完全覆盖,此时需要移动相机拍摄多幅照片,然后拼接出整体图像。
下面两幅图中矩形框代表一张采样照片的有效视场,照片的中心(焦点)对准边缘上的采样点,每张照片的中心坐标可以通过光栅尺反馈得到,此坐标即作为照片拼接的依据。
拼接原理如图3所展示。
图3 采集照片拼接示意
图3中有一个大尺寸参数需要检测,分析可知需要采集至少4幅照片,同时得到4个光栅反馈坐标,经过相机标定后可以得到光栅坐标与像素的转换比从而得到像素坐标,最后用像素坐标在空白画布上拼接合成检测对象的完整照片,得到整个边缘对象。
在得到检测对象完整照片后,经多次实验,应用灰度拉伸、二值化、滤波、边缘提取等基本图像处理算法后[5],可以提取出比较理想的基本图元(直线、圆、弧等),处理效果如图4所示。
图4 照片(左)与处理图(右)
单独的检测对象,如半径、直线度、线长等其本身参数获取不依赖于相对坐标,可以直接拟合得到。但对于线线距离、点线距离、圆心距离、线段夹角等复合检测对象,需要先测算了其中每一个基本对象的参数后才能得到整个复合对象的参数,即依赖基本对象间的相对坐标。
图5展示了圆心到直线的距离测算依据:
图5 孔到线距离测算依据
A为一张照片拍摄的孔,其拟合圆心对于照片左上角的相对坐标为(Δx,Δy);B为两张照片拼接成的直线边缘(垂直于坐标系),其拟合直线到照片左侧距离为Δl。设照片A的光栅坐标为(xA,yA),照片B的光栅坐标为(xB,yB),那么孔到线的距离L由公式(3)可算出:
L=y=|(yA+Δy)-(yB+Δl)|
(3)
图6展示了两线夹角的测算依据:
图6 线与线夹角测算
在线与线夹角的测算中不需要完全拟合两条直线,只需要得到其端点,即可利用“两点一线”计算出其夹角,与孔到线距离测算类似可得到图7中的4个端点:P1(x1,y1)、P2(x2,y2)、P3(x3,y3)、P4(x4,y4)。然后利用公式(4)算出夹角:
(4)
Z方向高度可直接读取激光传感器,要测量零件的Δh(高度或粗糙度),必须首先标定基准平面(大理石载物台)h0,然后计算测量差值即可,如公式(5),公式中的H为读取激光传感器的值:
Δh=H-h0
(5)
激光传感器的中心(打光点)与相机视场中心不可避免存在偏移,而所有测量点都是对准视场中心的,那么基于视场中心的采样点坐标就不适用于激光传感器,必须进行X-Y运动修正,又因为相机焦距是固定为C的,激光传感器测量范围在L±l,所以不能在同一高度进行测量,需要Z方向的运动修正,图7展示了这些坐标偏差:
图7 相机与激光传感器坐标偏差
假设图7中激光中心到视场中心的偏差为Δx、Δy,那么设定采样点坐标(x,y)与激光测量实际坐标(xl,yl,zl)的关系如公式(4):
xl=x+Δx
yl=y+Δy
zl=C-L
(4)
在进行激光测量时使用公式(4)计算出的坐标进行修正即可。
检测头的定位坐标如果是由人工计算输入的,那么当采样点数较多时操作量会变得特别大,这就降低了检测平台的速度,所以需要配套设计一种自动得到定位坐标的方法。
得到的定位点都是散点,而相机拍摄时要求相关联的检测对象必须连续拍照,所以还要对这些散点进行排序优化,使路径在尽量短的同时满足拍摄条件。
一般的零件加工都依据其CAD设计图纸,那么CAD图纸文件里包含了零件所有的形位信息,就可以根据这些信息来确定采样点坐标。[2]
DXF是CAD的一种数据交换格式,以带标记数据形式表示AutoCAD图形文件中包含的所有信息,参考DXF开发手册,可知带标记数据是指文件中每个数据元素前面都带有一个称为组码的整数——指出了数据元素类型以及对于给定对象的含义,如表1所示。
表1 圆图元组码含义
因为零件图纸的各个图元信息都按此规则储存,所以可以很方便地设计出提取程序,流程图如图8所示。
图8 图元信息提取流程
3.1.1 圆或圆弧的解析
得到圆心、半径、开合角后就得到了圆或圆弧的轮廓,在轮廓轨迹上可确定相机定位坐标,依据公式(6)、(7):
n=|(B-A)/Δθ|
(6)
(7)
公式(6)中的r与R分别代表相机视场半径与圆半径,A、B代表圆弧起始角与终止角;公式(7)计算出了轮廓上每个定位点的坐标。
3.1.2 椭圆或椭圆弧的解析
由于椭圆的曲率半径是变化的,所以无法直接套用公式(6)来得到步进角Δθ,拟用最大的R值来代替,定位坐标同样利用公式(7)可得。
3.1.3 多段线的解析
多段线其实就是多条线段相连组成的整体,可以提取到每条线段的起点和终点,分别计算单段的定位点然后整合即可,单段计算公式如(8)、(9):
可用于图书馆导航、入馆教育、参考咨询、快速找书、馆藏揭示等,目前国内图书馆研究讨论的多,实现的少;国外图书馆实现的多。
n=|L/2*r|
(8)
(9)
公式(8)中的L代表线段长度;公式(9)中的α代表线段与X轴夹角。
3.1.4 标注信息
标注的组码中,有测量标注和文字标注两类。测量标注是在绘制时按照实际值自动产生的标注,文字标注则是用户自行输入的字符,其中测量标注是可选的,即在没有测量标注的情况下会使用文字标注,但由于文字标注并不对应实际尺寸,所以一般只需要提取测量标注。
在图纸解析得到定位点的过程中,图元间定位的顺序依赖于图纸文件中数据的排序,也就是绘图的顺序,这个顺序是随机的,并不满足图像视觉处理的顺序——图元关联顺序,而且不拍照的运动间隙时间也影响着实时性,所以要求相机跨越图元间距离尽可能短。
对于跨越距离短的要求,可以用贪心算法来解决,如图9,从起点A去遍历其余4个节点,每个节点的编号代表其默认排序,虚线箭头则为其默认路径:
图9 随机排序的路径
图10是使用了贪心算法后得到的路径,从A节点开始,只寻找距离最近的下一个节点:
图10 随机排序的路径
实际上,图9和图10中的每个节点都是单个或者多个联合图元上的定位点集合,不能简单的进行连接,以下分情况讨论:
1)两个节点都是单图元集合的连接
每个集合都有首尾,共有4种连接方式,即首-首、首-尾、尾-尾和尾-首,找到其中最短连接即可,如图11,两个单线段图元以尾-尾连接最短:
图11 两个单线段图元的连接
2)一个节点是单图元、另一个是多图元的连接
例如,在两线夹角检测中涉及了两条直线,那么这样一个检测项目就包含了两个图元,也就是在一个节点中含有两个图元——联合图元,这样的联合图元首先内部排序必须满足图像处理要求,在内部排序完毕后,再将其作为一个整体图元与另外的图元按照分类1)的方法连接。
图12展示了一个“夹角图元”与另一个单线段图元的连接:
图12 “夹角”与线段的连接
3)两个节点都是多图元集合的连接
与方法2) 大致相同,遵守表2中的规则。
表2 多图元内部排序规则
最后对某常用检测件进行图纸解析测试,得到下图13中的路径,图中紫色为设定原点,蓝色为检测对象参数,十字标记了采样点位置,虚线表明路径方向:
图13 智能路径算法效果
使用经过标定后的前文所提工件,分别测量其上臂宽(图14)和右孔距(图15)各3次,取其平均测量结果,如表3所示。
图14 上臂宽测量标示
图15 右孔距测量标示
由表3数据可初步判定,检测精度达到了±0.010 mm的范围。
表3 测量报告
本文主要研究开发了一种基于机器视觉、激光测量等技术的新型智能化大尺寸复杂精冲零件检测平台。经初步运行结果表明,系统在测量600*600*8 mm复杂精冲件时精度达到±0.010 mm。
本设计的实现,不仅可以满足精冲零件检测领域提出的便捷、快速、精确、智能化等全新要求,而且具备强大的拓展性能。在软硬件上皆可快速部署并应用到其他大尺寸零件的检测和复杂曲面的加工,例如雕刻加工。
[1] 刘霞. 工业零件形状尺寸的机器视觉检测系统的研究[D]. 哈尔滨:哈尔滨理工大学, 2009.
[2] 梁艳青. 基于DXF文件的数控自动编程系统的设计与实现[D]. 沈阳:中国科学院沈阳计算技术研究所,2015.
[3] 邓小峰. 基于机器视觉的零件识别和测量系统研究[D]. 南京:南京航空航天大学, 2014.
[4] 叶 鹏,高兴宇. 基于机器视觉的工业零件通用检测平台[J]. 桂林电子科技大学学报,2016,36(3):227-230.
[5] 付 泰,王桂棠,程书豪,等. 基于机器视觉的复杂平面零件尺寸精密检测[J]. 机电工程技术,2016,45(08):7-9.
[6] 伍济钢. 薄片零件尺寸机器视觉检测系统关键技术研究[D]. 武汉:华中科技大学,2008.
[7] Liu Y Q. Design and implementation of motion control system based on motion control card[J]. Microcomputer Information, 2010.
[8] Yang G, Xu F. Research and analysis of Image edge detection algorithm Based on the MATLAB[J]. Procedia Engineering, 2011, 15(1):1313-1318.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!