时间:2024-09-03
陈远方,魏新生,李保强
(机械工业第六设计研究院有限公司 工业与智能中心, 河南 郑州 450007)
随着工业的自动化和智能化发展,机器人越来越多地取代人工来完成一些高强度、高难度的工作。目前,机械装配过程的上料环节,只要通过机器人示教工件的抓取轨迹,就可以完成准确无误的抓取,从而显著提高生产效率。但这种示教方法往往只适用于工件种类单一的场合,当工件种类非常多时,采用机器人示教的方法将不再是最优的选择。
液压千斤顶作为液压系统的执行元件,在汽车修配、船舶修造、桥梁维修等场合得到了广泛应用。其缸筒和活塞杆的传统装配过程往往需要采用人工上料方法,生产效率极其低下。目前,工业机器人被广泛应用于上料环节,但需要对每种工件进行轨迹示教,不仅工作量大,而且若想后期增加产品种类,就需要再次进行轨迹示教,这就对工件种类的增加产生了一定的限制。许多学者曾对上料系统的设计进行了大量研究,如:文献[1]通过设计Real Sense 3D 相机的视觉引导系统,完成了板式换热器在氦气检漏工序的自动上料;文献[2]结合机器人和视觉系统实现了锻造车间的棒料自动上料;文献[3]基于机器视觉技术,采用Blob分析与神经网络分类器相结合的方法,实现了生产线上零散摆放的多工件分类识别与定位;文献[4]针对空调压缩机电机生产中定子浸漆炉的上料需要,基于机器视觉技术,提出了基于几何模板匹配的定子区域识别与定位方法,并通过实验验证了视觉识别定位算法和视觉引导上料方案的可行性。
本文针对某企业液压千斤顶装配线上料环节存在的效率低下问题,首先根据实际上料需求确定多类型液压千斤顶组件上料系统的总体方案;然后根据缸筒和活塞杆的机械结构,设计一款适应性较强的电磁铁夹爪机构;最后将工业机器人与机器视觉技术相结合,提出双目线激光视觉系统[5],实现机器人准确无误抓取工件的目的。
所设计上料系统用于液压千斤顶的装配线。该装配线需要上料的液压千斤顶包括侧推型、侧帮型、护帮型、伸缩型、平衡型、抬底型,共6类,有30种规格,对应的缸筒和活塞杆种类有60种。装配时需要将缸筒和活塞杆按顺序放至清洗机工位。工件来料主要靠人工操作天车将装有缸筒和活塞杆的料仓分别放在相应的工位。每个活塞杆料仓内共摆放4层活塞杆,每层活塞杆需摆放在相应的木托上(图1)。缸筒料仓内共摆放4层缸筒;由于缸筒外观特殊,因此只要第一层缸筒摆放在木托上就行;在第一层缸筒上可直接摆放若干缸筒(图2)。
图1 活塞杆在木托上摆放示意图
图2 缸筒在木托上摆放示意图
具体的上料流程为:机器人首先移动至活塞杆料仓上方并拍照识别;然后在视觉系统的引导下抓取活塞杆并放置在清洗机工位;之后重复上述动作完成缸筒的识别、抓取与放置;当活塞杆和缸筒到位后,机器人将上料完成信号发送至清洗机控制系统,缸筒和活塞杆的上料结束。
机器人在抓取活塞杆时需要逐层识别,完成每层活塞杆的抓取后,抓取相应的木托并放置在木托料仓内而完成木托的回收;在抓取缸筒时也需要逐层识别,但是由于缸筒摆放方式的特殊性,此时会面临一个问题,即机器人可能会跨层抓取缸筒而导致夹爪的损坏,因此对视觉系统的稳定性与可靠性提出了一定要求。
面对种类多达30种的千斤顶缸筒和活塞杆抓取任务,要保持多类型液压千斤顶组件上料系统的稳定运行,就需要在来料方面满足下列要求:每次来料必须是同一种规格的缸筒和活塞杆,且缸筒数量和活塞杆的数量要一样,同时要在触摸屏上输入相应的规格信息。
针对工件来料方式设计缸筒穿梭车和活塞杆穿梭车,以便来料后将料仓放在对应的穿梭车上,并让穿梭车在变频器的控制下到达指定的上料位置。这种靠穿梭车运料的方式一方面避免了工人随机摆放千斤顶组件而影响机器人后续拍照位置的确定;另一方面有利于后期将来料方式改为AGV(Automated Guided Vehicle)运输后,各系统之间的稳定衔接。
根据缸筒、活塞杆和木托的结构特点设计一套兼容性强的夹爪机构,不仅能满足多种规格缸筒和活塞杆的抓取,而且可实现对木托的抓取。
为了满足上料的稳定性和准确性要求,应设计一套双目线激光视觉上料系统。单纯采取机器人上料方式时,面对规格繁多的缸筒和活塞杆抓取任务,要实现准确的逐层抓取,就对示教工作提出了很高要求。这不仅会导致工作量增大,而且在后期增加工件种类时需要实际操作人员具备一定的机器人和视觉系统相关技术。
鉴于液压千斤顶装配线上清洗机的节拍较慢,而机器人的上料节拍较快,因此在设计多类型液压千斤顶组件上料系统时,应考虑缓存工位的设置问题,使得一个上料流程结束后机器人能将工件放置在缓存工位,以等待清洗机完成一个节拍的清洗。此外,有些特定工件需要进行人工清洗,因此应设置人工清洗工位。
分析可知,多类型液压千斤顶组件上料系统应主要包括:缸筒和活塞杆穿梭车、库卡机器人、夹爪机构、缓存工位、人工清洗工位、双目线激光视觉系统以及PLC控制系统。上料系统的布置如图3所示。
图3 上料系统布置
根据缸筒和活塞杆的结构特点,可设计图4所示的夹爪机构。它主要由伺服电机、丝杆机构、V形电磁铁夹爪、气缸、拖链组成。为了满足多种规格缸筒和活塞杆的抓取需要,本文采用伺服电机驱动旋向不同的丝杆机构,从而实现两个电磁铁夹爪的相向运动;用气缸驱动木托夹爪,实现其上下移动以及夹紧、松开的动作。
图4 夹爪机构
根据麦克斯韦电磁理论[6],电磁铁稳态工作时吸力为:
(1)
式中:F为电磁力,N;B为工作气隙磁感应强度,T;S为磁路横截面面积,m2;μ0为空气磁导率,应取值4π×10-7Wb/A·m。
工程应用中,常将其表示为:
(2)
式中,φ为电磁铁的气隙磁通。
夹爪机构抓取的工件最大质量约为100 kg,考虑到电磁铁与工件实际接触面积较小以及漏磁通的存在,为了保证安全,设计时应选取吸力为300 kg的电磁铁。
在液压千斤顶装配的上料环节,缸筒和活塞杆的料仓内分别摆放两排工件,每排共摆放4层。由于工件的规格不同,每层放置的工件个数也不相同。考虑到缸筒摆放方式的特殊性,为了让上料系统提供的缸筒和活塞杆数量相等,需要以缸筒的摆放数量来匹配相应的活塞杆数量。以直径为63 mm的千斤顶为例,每排摆放12个工件,因此每个料仓共计48个工件。根据线激光传感器的视野范围可确定机器人的拍照位置。在识别活塞杆时,每层设置8个拍照位,其中6个拍照位用来识别12个活塞杆,剩余两个拍照位用来识别2个木托;在识别缸筒时,由于只是第一层有木托且不需要进行回收,因此需要设置24个拍照位来识别缸筒。
由于缸筒和活塞杆种类过多,为了提高匹配效率,所有工件的视觉模板号会以配方的形式存放在触摸屏内。机器人在抓取前会首先向PLC索取该批次工件的视觉模板号,然后将模板号传递给视觉系统。若视觉系统提示模板切换成功,则机器人会依次到达各拍照位置,同时将拍照位置的位姿坐标发送给视觉系统,进行比对。视觉系统在位姿坐标比对成功后,开始拍照识别、模板匹配、实际位姿坐标获取,并将实际位姿坐标发送给机器人。
为了确定缸筒和活塞杆的实际位姿坐标,首先需要进行相机标定和手眼标定。相机标定工作由于在其出厂时已经做好,因此这里主要介绍手眼标定过程。
手眼标定的目的是获得相机坐标系与机器人工具坐标系之间的变换关系。手眼标定主要采用的模型有Eye-in-Hand和Eye-to-Hand两种,其中前者在工业机器人中应用比较广泛。因此,本文采取Eye-in-Hand模型进行手眼标定。
手眼标定过程如下:将标定板固定在水平台上,使机器人处于不同的位姿,用相机对标定板重复拍照15次,同时记录每次拍照时机器人的位姿坐标,使视觉系统最终自动给出相机坐标系与机器人工具坐标系之间的变换矩阵。
通常,车间内光照等因素会影响工件的拍照与识别。本文采用基于线激光的双目视觉系统来实现缸筒、活塞杆的识别与定位。以线激光作为主动光源,根据双目立体视觉的视差原理对缸筒和活塞杆进行三维重建。实际测量时,首先向工件投射线激光条纹;然后由步进电机带动线激光条纹扫描整个工件表面,同时双目相机同步采集工件图像;最后根据激光条纹特征和双目视觉成像原理,获得工件的三维点云信息。
双目立体视觉识别的过程包括:图像获取、相机标定、立体匹配和三维重构[7]。具体来说,图像的获取由线激光与双目相机共同完成;相机标定采用张正友棋盘格方法,用Bouguet算法对双目相机拍照的两幅图像进行立体校正,实现两幅图像的共面且行对准;通过立体匹配获得像素点的视差值;根据三角法获取视差图像中点的深度值,并将深度值代入相机模型,从而计算出三维坐标。
激光条纹中心线的提取采用最经典的Steger几何重心法[8]。该方法是基于Hessian矩阵计算激光条纹中心的法向量,通过泰勒级数展开得到像素中心坐标的。其中Hessian矩阵可以表示为:
(3)
设nx、ny为用Hessian矩阵求出的激光条纹法线方向的单位向量,则以点(x0,y0)为基准,利用泰勒级数展开,可得到中心点的亚像素坐标(px,py),即
(px,py)=(x0+tnx,y0+tny)
(4)
如果(tnx,tny)∈[-0.5,0.5]×[-0.5,0.5],则点(x0,y0)为条纹中心。
模板匹配主要是对目标工件的特征点和所建标准模板进行相似性度量[9]。在目标工件与对应模板匹配成功后,视觉系统会自动计算目标工件抓取点的位姿坐标。模板匹配方法具有很高的精度和较强的鲁棒性,因此被广泛应用于工业现场。
模板匹配需要创建缸筒和活塞杆的标准模板。其具体过程为:首先,机器人移动到拍照位置,并用双目线激光扫描视觉系统获取三维点云图像,同时记录机器人此时的位姿坐标;然后,机器人将夹爪移动至工件的实际抓取点,并记录此时的位姿坐标;最后,对相机扫描得到的三维点云图像进行分割与去噪处理,从而获得纯净的工件点云信息。通过三维重建获得的目标工件点云信息,受环境因素的影响,通常会包含一些噪声,因此需要对点云图像进行分割、滤波等处理,从而提高模板匹配的成功率。在去噪处理后,要对三维点云图像和标准模板进行特征点匹配,计算两者的相似度,当相似度大于设定阈值时,认为匹配成功。目前,基于灰度值的相似性度量方法有绝对误差和算法、差方和算法以及归一化相关系数算法等。本文采用线激光作为主动光源,在保证光照稳定的前提下,采用简单且效率高的SAD(Sum of absolute differences)算法,对每个像素对应的灰度值之差的绝对值求和,从而计算出相似度。特征点匹配的相似度为:
(5)
式中:T为模板尺寸;t(u,v)为模板灰度值;g(r+u,c+v)为被模板覆盖区域的灰度值。
模板匹配成功后,根据点云配准[10]中经典的ICP(Iterative Closest Point)算法,获得模板点云与场景点云之间的旋转平移矩阵。由于在构建视觉模板时已经确定了机器人的抓取位姿,因此将该位姿矩阵与旋转平移矩阵相乘即可获得目标工件抓取点的实际位姿,从而引导机器人实现对目标工件的抓取。
为了验证视觉系统的可靠性,本文选取6种不同的缸筒和活塞杆,进行试验验证。试验所得缸筒、活塞杆的抓取位姿(X,Y,Z,A,B,C)和识别时间分别见表1、表2。这里,抓取位姿(X,Y,Z,A,B,C)中:X、Y、Z分别为机器人在X轴、Y轴、Z轴上的坐标值,mm;A、B、C分别为机器人绕X轴、Y轴、Z轴旋转的角度,(°)。
表1 缸筒的抓取位姿和识别时间
表2 活塞杆的抓取位姿和识别时间
试验中,重复抓取48个缸筒和活塞杆,结果表明:机器人以正确位姿抓取工件的成功率为100%,缸筒的平均识别时间为10.422 s,活塞杆的平均识别时间为9.587 s。由此可以看出,通过使用所设计上料系统,生产效率得到了显著的提高。
本文研究了基于双目线激光视觉引导的液压千斤顶组件上料系统,利用双目视觉相机结合线激光条纹扫描,实现了对缸筒和活塞杆的准确识别。在调试期间对缸筒和活塞杆进行抓取试验,以正确位姿抓取工件的成功率为100%,验证了夹爪机构的可靠性和视觉系统的稳定性,满足了企业的正常生产需要,同时提高了生产效率。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!