基于视觉的缝纫机器人控制系统设计
2022-03-26李若磊李耀光闫鑫
李若磊,李耀光,闫鑫
(西安工程大学 电子信息学院,陕西 西安 710048)
0 引言
当前的服装生产过程中流水线基本依赖于工人手工操作[1]。服装行业实现全自动化、无人化生产,提升服装生产效率是今后发展的必然趋势,传统的工业机器人可通过示教与编写指令来完成点对点的指定工作[2]。但如果目标位置改变就要重新进行示教,因此采取机器视觉对目标进行定位,代替人工重复操作,可以提高工厂的生产效率。
目前,机器视觉的工业机器人技术大多运用于焊接与搬运码垛中[3-5],因此采用机器视觉中的定位技术与工业机器人和缝纫机结合,可得到工业协作型缝纫机器人。工业协作型缝纫机器人配备具有静电吸附、负压吸附等。机器人的末端执行器来完成面料的抓取、转移、静电吸附[6-7]。机器人将转移的面料输送至全自动缝纫机处,使面料与缝纫机形成配合,完成缝制作业。
随着人口红利的消失,使得在作为劳动密集型产业代表的服装业中进行“机器换人”成为行业转型升级的必然选择[8]。在简单重复的工作岗位率先引入机器人进而逐渐将机器人应用于全部岗位是制造业“机器换人”的必由发展之路[9]。夏楠等人设计并实现了筒子纱包装自动缝纫系统[10],Henderson Sewing公司将Baxter集成到其缝纫机生产系统,实现了缝纫自动化[11],陈剑虹等人完成了基于机器人的压铸件表面打磨工作站的开发[12]。张秋华等人完成了一种圆柱体小零件机器人自动打磨抛光系统的设计[13]。为了实现缝纫机器人的设计,本文将视觉定位技术引入到缝纫机器人控制过程中,实现对目标的定位。采用Socket(套接字)建立机器人和示教器的通讯,可视化操作方便和简化了工作过程。采用分层式控制,提高了工作效率,能够实现缝纫对目标的自主缝纫。
1 系统总体方案
该工作系统主要由工业机器人模块、机器视觉模块和缝纫机模块组成。工业机器人模块由三个主要部分组成,分别是机械本体、控制柜和示教器。机器视觉模块由工业相机和光源组成用于对布料的定位,经过CCD图像卡将信息传递给机器人控制柜,由上位机上编写的程序进行分析定位,获得物体位置信息,传递给工业机器人,最后由工业机器人对物体进行抓取,配合缝纫机完成缝纫任务,示教器可以方便操作和监视机器人位置状态。系统结构图如图1所示。机器人自动上料系统的工作流程如图2所示。首先完成相机标定,为后续提高标定精度做好准备。然后,通过工业相机采集图像,并将获取的图像信息传递给上位机。上位机根据九点标定原理从像素点和实际坐标点直接求解转换矩阵并由此测得物体的位姿信息,与控制柜进行RS-232通信传递位姿信息,由控制柜控制机器人完成布料的抓取和放置动作。
2 系统硬件设计与功能实现
2.1 硬件选型
视觉模块:CCD相机选取基恩士CV-H500C工业数字高速摄像机,采用串口进行通讯。相机安装在目标物体的上方。镜头选取型号基恩士CA-LH16,焦距为16 mm,满足设计的要求。光源采用基恩士的背光照明(CA-DS)光源,其照明系统响应时间快,可获得高品质、高对比度图像。
工业机器人模块:选用XB7六轴机器人,并使用Titanite控制系统对其进行控制。其控制系统内部自带socket通信接口,方便与示教器进行通信,同时赋予了机器人更高的精度、速度和稳定性。
缝纫机模块:缝纫机本体选择标准的TC129,主要负责自动缝纫机的缝纫工作,缝纫机伺服控制器采用YSC-8330,采用RS232与机器人控制柜通讯。通过控制步进电机、变频器和电磁阀等设备可以调节缝纫机的缝纫方式、设置缝纫速度等,满足机器人末端运行速度的要求,完成缝纫。
2.2 视觉定位
相机标定的目的是:建立相机成像几何模型并矫正透镜畸变。本系统选择基恩士工业相机作为图像采集设备,相机型号为CV-H500C。本文采取张正友标定法求解从像素坐标系到图像坐标系、图像坐标系到相机坐标系、相机坐标系到世界坐标系的关系。像素坐标系和图像坐标系转换关系如图3所示。像素坐标系和图像坐标系都在成像平面上,只是各自的原点和度量单位不一样,其转换关系如下:
图像坐标系与相机坐标系如图4所示。二者属于投影关系,根据小孔成像原理可知其关系如下:
从相机坐标系变换到世界坐标系属于刚体变换,即物体不会发生形变,只需要进行旋转和平移,平移如图5所示。则其转换关系如下:
通过上面的4个坐标系转换,就可以得到一个点从像素坐标系转换到世界坐标系的公式:
通过matlab进行标定,标定结果如图6所示:
机器视觉系统的标定是机器视觉的关键技术之一,是准确测量目标物体的必要过程[13]。由于本次实验室目标物体高度固定,且“eyeinhand”型标定工序繁琐迭代误差较大,所以选择“eyetohand”型,进行标定。
传统的手眼标定操作不仅复杂繁琐,还存在计算量和误差传递较大的问题。而本次采用的手眼标定系统只需获取像素坐标和与之对应的机械臂坐标,进而求得转换矩阵。这样不仅节约了时间,还减少了计算量并提高了标定精度。本次实验采用九点标定法。将检测到像素坐标和机器人坐标数据写入到HALCON中函数算子vector_to_hom_mat2d(Row,Colum,Row_robot,Column_robot,HomMat2D),求得像素坐标系与机械手坐标系转换的变换矩阵H。
求得转换矩阵后,进行实验测试。所得目标物体机械臂坐标系下的坐标的计算结果如表1所示。满足本次设计的要求。
2.3 轨迹规划
三次多项式轨迹规划只能够保证速度和位移连续,并不能保证加速度连续。加速度不连续将会对使电机抖动、甚至冲击。本文将五阶多项式作为路径段,确定起始点、终点的位置及速度和加速度。
表1 机械臂坐标系下参考点的真实坐标和计算坐标
可设置一些约束条件:
经过matlab仿真后可知相比于三次多项式插值,关节角度和角速度曲线显示得都相对平滑,而角加速度曲线在中间点2s处变化稍大。结果分析得出,五次多项式插值法虽然计算量有所增加,但是其关节空间轨迹平滑、运动稳定,且阶数越高满足的约束项越多。由加速度曲线对比,采用五次多项式插值,保证速度平滑,加速度不突变。图7、图8分别为五次样条插值和三次样条插值。
3 系统软件设计与功能实现
3.1 机器人架构及控制流程设计
机器人系统主要功能是运动控制、动作监测、故障反馈、实时通讯、工作模式的切换,采用RL语言作为编程语言。RL程序根据范围大小分为工程、程序模块以及函数。一个工程中可以包含多个程序模块文件,程序模块分文程序模块(.mod)和系统模块。函数就是用户自定义的用于重复调用的程序块。图9表示整体程序架构图,图10表示工程、程序以及函数关系图。
系统启动后,启动相机视觉定位功能,机器人从初始位置到达目标位置。机器人末端取料完成后到达待缝纫区域发出信号给缝纫机,缝纫机开始运动,此时机器人带动缝料与缝纫机配合进行缝纫,待布料缝纫完成后,机器人到达收料区,控制电磁阀打开收料窗,待缝料落下后关闭收料窗,机器人回到初始位置等待信号准备再次缝纫,如此循环往复来实现缝纫机器人系统自主缝纫。工作流程如图11所示。
3.2 人机界面设计
为了更加直观地观察到机器人缝纫控制系统各部分实时控制的情况,对缝纫机器人人机界面进行了设计。图12表示操作界面,A表示主菜单按钮,B表示状态栏,C表示快捷设置栏,D表示机械单元与编程指示,F表示主显示区。状态栏主要用来显示操作模式、控制器工作状态、机器人运行状态、最新日志等重要信息。快捷设置栏主要用于调节机器人关节以及程序运行参数,同时还可以指示当前参数的设置状态。主显示区主要用于编写程序以及画面显示作用。图13表示程序编写界面。图14表示机器人位置监测界面。图15表示I/O信号显示界面。
4 系统测试
为了验证设计的可行性,进行实际操作实验对本本系统进行测试,首先进行硬件的连接与启动,系统上电后开始调试程序,设置参数。图16和图17分别为实验过程和实验结果,结果表明,系统的各个模块均可完成各自功能,机器人按照预期正常运行并完成预定动作。
5 结语
本文设计的视觉缝纫机器人控制系统,实现了基于视觉的机器人自主布料定位,自动抓取,自动缝纫、下料的工作任务,能够代替人工进行缝纫工作,提高了工作效率。本系统硬件搭建容易,软件结构清晰。相比传统的缝纫控制系统,其开放的系统结构可以灵活地更新和拓展控制系统的功能。