APP下载

基于多尺度特征注意Yolact网络的堆叠工件分拣算法

2022-09-29徐胜军李康平韩九强孟月波刘光辉

计算机测量与控制 2022年9期
关键词:工件尺度实例

徐胜军,李康平,韩九强,2,孟月波,刘光辉

(1.西安建筑科技大学 信息与控制工程学院,西安 710055; 2.西安交通大学 电信学部,西安 710061)

0 引言

随着国家工业的发展,仅依靠传统人力对工件进行分拣已无法满足当今工业的生产需求,以工业机器人代替人力完成工件分拣任务逐渐成为研究的热点。利用工业机器人的自动识别抓取工件是提高自动化生产线效率的关键环节之一。在空调驱动电机的生产过程中,需要将大量电机转轴从容器中分拣出来放置于工业流水线上,由车床、铣床进行精加工。然而由于随机摆放的大量电机转轴存在复杂的堆叠遮挡问题,因此这种非结构化场景的堆叠遮挡工件的个体识别难题给基于机器人的自动识别抓取工作带来了很大挑战性。

当前,基于视觉机器人的工件识别分拣方法受到了重点关注。这些研究方法主要分为基于传统视觉方法和基于深度学习方法。基于传统视觉方法主要包括边缘检测方法、特征匹配方法和图像分割方法。伍锡如等[1]基于Otsu阈值分割、形态学处理、与边界像素检测等方法实现了对象棋棋子的识别。高赢等[2-3]通过VisonPro视觉工具中的PatMax特征匹配方法识别发动机瓦盖,实现了发动机瓦盖上料机器人系统。宋海涛等[4]采用SIFT特征匹配算法研发了移动机器人物体抓取系统。熊俊涛等[5]利用K-means聚类分割和Hough圆检测实现了柑橘的识别分割。由于传统机器视觉算法对外界环境变化较为敏感,且算法各阶段所采用的阈值参数均是根据人为经验设定,因此难以准确提取待识别物体的特征,在实际工件分拣机器人系统中不能准确定位抓取非结构化场景的堆叠遮挡工件的个体。

面向图像处理的深度学习网络已被证明在感知问题上具有强泛化能力,因此基于深度学习的机器视觉技术受到了广泛关注。基于深度学习的目标检测算法[6,8-10]是机器人自动识别与抓取物件的常用算法。武星等[11]提出了一种基于轻量化YOLOv3网络的苹果检测算法。杨长辉等[12]基于改进YOLOv3网络设计了一种柑橘采摘机器人系统,可实现柑橘自动采摘,并对多类障碍物进行识别、避障。朱江等[13]基于Faster R-CNN模型实现了曲轴瓦盖上料机器人系统,提升了发动机装配生产线的工作效率。王欣等[14]基于快速SSD深度学习算法开发了一种水果识别分拣机器人。杜学丹等[15]利用Faster R-CNN目标检测网络得到目标物体的类别与位置,再根据对目标物体分类检测的结果使用基于深度学习的方法学习抓取位置以达到对物体的自动抓取。薛腾等[16]根据抓取过程中物体抵抗外界扰动的能力,提出一种基于触觉信息的抓取质量评估方法,应用此方法搭建了机器人抓取系统实现了对10种目标物体的抓取。虽然基于深度学习的目标检测算法对抓取物体与背景有明显差异情况下的简单场景物体识别效果较好,但是由于空调驱动电机的生产过程中大量电机转轴堆叠在工业流水线上,利用目标检测算法在使用样本学习时会学习到过多冗余特征,因此这种算法难以有效识别这种复杂堆叠场景下的电机转轴。

电机转轴抓取属于复杂背景下的堆叠工件抓取问题。实例分割是目标检测与语义分割任务的结合,可以同时得到图片中感兴趣物体的位置、所属类别、与掩码信息。因此像素级的实例分割算法更适用于三维堆叠工件的图像处理。Li等[17]基于实例感知全卷积网络中位置感知特征图的概念提出FCIS实例分割方法。He等[19]基于Faster-RCNN[18]边界框识别分支的基础上增加了一个mask预测分支,同时使用ROI Align[19]解决了在候选区域与特征图像进行映射时由于ROI pooling[18]造成的匹配误差问题,在检测目标对象的同时为每个实例生成掩码。杨攀等[20]使用Mask-RCNN算法对不同尺寸的木材端面图像进行了分割,实现了复杂背景下不同尺寸木材的检测、计数功能。赵庶旭[21]基于改进Mask-RCNN算法实现了牙齿的识别与分割。王涛[22]基于平衡金字塔思想对Mask-RCNN的特征提取网络进行改进,实现了零件回收抓取系统。但由于Mask-RCNN属于两阶段实例分割算法,需要RPN网络产生建议区域再将建议区域映射至特征图像,根据建议区域与其特征预测实例掩码。建议区域的产生过程与分割操作的不并行会导致模型处理图像速度较慢,无法满足工业生产中的实时性要求。

针对非结构化场景中存在的多个物体堆叠遮挡等问题,提出了基于多尺度特征注意Yolact网络的堆叠工件识别定位算法。首先,针对堆叠工件图像分割结果边缘模糊及边界框定位不准问题,提出了多尺度特征注意Yolact网络;其次,针对工件位置难以确定问题,利用目标掩码进行最小外接矩形生成,结合目标边界框与目标掩码的最小外接矩形确定了工件的位置信息。最终基于所提算法设计了一种工件分拣机器人系统,并应用于实际空调电机转轴分拣作业场景,通过实验证明了该系统的有效性。

1 Yolact网络基本原理

Yolact[23]一种基于单阶段目标检测网络的实例分割网络,该网络在单阶段目标检测网络[24-25]上增加了一个掩码模板生成分支,此分支与目标检测分支并行,同时在目标检测分支中增加掩码系数预测分支,最终利用掩码系数与掩码模板产生实例掩码。由于该网络无需等待RPN[18]生成建议区域后再进行特征映射产生实例掩码,因此Yolact的速度远远高于双阶段的实例分割网络,适用于工业场景下的实时检测任务。

Yolact网络的基本结构如图1所示。该网络主要由骨干网络(Backbone)、掩码模板生成分支(Protonet)、预测模块(Prediction module)、聚合分支(assembly)和剪裁模块5个部分组成。

图1 Yolact实例分割网络

骨干网络由Resnet101[26]与特征金字塔网络(FPN)构成,基于FPN得到特征图像P5、P4、P3,并对特征图像P5进行卷积操作得到特征图像P6、P7。随后将实例分割分为两个并行的子任务,一个子任务将特征图像P3输入Protonet生成一系列掩码模板(prototype masks),不同的掩码模板对不同实例的敏感程度不同。另一个子任务在目标检测分支中增加了掩码系数预测分支,在预测目标物体边界框位置与类别的同时,产生掩码模板中表示实例掩码的掩码系数(mask coefficients)。最终,将掩码系数与掩码模板进行线性组合得到实例掩码,再根据预测所得的边界框对图像进行剪裁实现实例分割。

2 多尺度特征注意Yolact网络

由于Yolact网络采用掩码模板与掩码系数线性组合的方式获得目标物体的分割结果,因此掩码模板的质量好坏对目标物体的分割结果有很大的影响。由于本文需要对堆叠工件进行单体识别并进行抓取,在这种堆叠工件识别抓取场景中,最顶层无遮挡的工件与叠加工件的形状、颜色、纹理特征极为相似,故需要深度学习网络提取高级抽象语义特征并识别出最上方可分拣的工件。然而堆叠工件的分割任务不同于常规物体检测,这种任务既需要识别网络能捕获长距离范围内像素点之间的语义关系,同时也需要准确提取工件的空间细节特征。由于标准Yolact网络的Protonet分支利用CNN进行特征提取时仅简单利用卷积层增大其感受野,忽略了不同尺度特征图像之间的特征差异与不同特征对于目标分割精度的重要性。与此同时,由于工件的数量与堆叠程度不同,工件在图像中的尺度大小会发生变化,而Yolact算法的预测模块使用特征图像的感受野丰富度较低。因此会造成目标工件边缘分割结果精度低、工件边界定位不准确等问题。为解决此问题,提出了多尺度特征注意Yolact实例分割网络,该网络由骨干网络、多尺度特征注意掩码模板生成分支、膨胀编码预测模块、聚合分支与剪裁模块组成。所提网络如图2所示。首先利用由Resnet101与特征金字塔网络构成的骨干网络对工件图像的特征进行提取。随后将提取到的特征图像P3输入多尺度特征注意掩码模板生成分支获取掩码模板。多尺度特征注意掩码模板生成分支在标准Yolact网络的Protonet分支中嵌入多尺度融合与注意力机制,可以在聚合多尺度工件图像特征的同时,引导网络学习与目标工件相关特征生成一系列高质量的掩码模板。同时将由骨干网络获得的特征图像P3至P7输送至膨胀编码预测模块预测工件图像中实例的类别、边界框位置、掩码系数。膨胀编码预测模块在标准Yolact网络的预测模块中引入膨胀编码机制增强网络对于不同尺度大小目标的适应能力。聚合分支将实例的掩码系数与掩码模板进行线性组合得到实例掩码。剪裁模块根据膨胀编码预测模块预测的边界框对图像进行剪裁完成实例分割。

图2 多尺度特征注意Yolact实例分割网络

2.1 多尺度特征注意掩码模板生成分支

图3 多尺度特征注意掩码模板生成分支

为了增强所提网络对感兴趣区域细节特征的学习能力,基于注意力机制构成空间金字塔注意力模块即在其后加入通道注意力分支、空间注意力分支两个并行的网络分支。通道注意力分支由全局池化层与两组卷积核尺寸大小为1×1的卷积层构成。该分支的输入为特征图像P={p1,p2,…,pc},其中pi∈RH*W表示第i个通道,H,W分别表示特征图像的高和宽。该分支使用全局平均池化对特征图像P进行压缩操作,即将每个特征通道都压缩成一个实数,从而将感受野扩展到全局范围。特征图像P经过全局平均池化后得到一个向量Z,且Z∈R1*1*C,则每个位置的值zc为:

(1)

式中,c为特征图像的通道数,H,W分别为特征图像P的高和宽。

将每个特征通道pi压缩后得到的向量Z使用一个卷积层降维,然后通过整流线性单元ReLU激活,再经过一个卷积层升维,最后利用sigmoid激活函数生成长度为32的特征注意权重向量Z1,整个过程表示如下:

Z1=δ[w2(σ(w1Z))]

(2)

式中,w1,w2分别为两个卷积层的权重,σ(·)表示整流线性单元ReLU,δ(·)表示sigmoid激活函数。

(3)

式中,z1i为第i个通道的权重,衡量了第i个特征通道pi的特征重要程度。

空间注意力分支由尺寸大小为1×1、卷积核数量为1的卷积层构成。此分支的输入图像为P={p1,1,p1,2,……,pi,j,……,pH,W},H,W为特征图像的尺寸,i,j为特征图像的空间位置。首先使用卷积层w3∈R1*1*c*1对特征图像P进行空间压缩操作,得到一个特征注意权重张量Zs:

Zs=w3(P)

(4)

式中,特征张量Zs中的权重表示图像上不同位置对于图像分割任务的贡献度。

(5)

式中,δ(·) 为sigmoid激活函数,δ(Zs(i,j))代表特征图P中位置(i,j)处的特征重要度。

(6)

2.2 膨胀编码

Yolact网络把FPN网络输出的5层特征图像P3~P7输入预测网络实现边界框的预测,利用边界框对集成掩码进行剪裁并生成实例掩码。如果边界框定位准确,那么网络会生成高质量的实例掩码;反之生成的实例掩码包含大量“噪声”,对分割结果带来很大干扰。由于特征图像感受野的丰富程度对边界框的定位精度至关重要,为使检测网络对不同尺度的物体均实现准确检测,本文选择感受野较大的特征图像检测大尺度目标,感受野较小的特征图像检测小尺度目标。所提网络在预测模块的Convb卷积层后加入膨胀编码模块,膨胀编码模块首先使用1×1的卷积将特征图像的通道数缩小为原来的四分之一,之后使用3×3的卷积对特征图像的上下文语义信息进行整合,并连续叠加4个相同结构的残差块,残差块的结构如图4所示。

图4 膨胀编码模块

每个残差块均由3个卷积层构成,卷积核的尺寸大小分别为1×1、3×3、1×1,其中3×3的卷积层使用了空洞卷积,4个残差块中尺寸大小为3×3的卷积层的空洞率分别设置为2、4、6、8。通过4个残差块的叠加将不同感受野大小的特征图像以逐像素点相加的方式进行融合,得到上下文信息足够去检测不同尺度目标的特征图像Q。由于特征图像Q中蕴含的上下文信息较原始网络Q′更加丰富,涵盖了在实际分拣作业场景中可能遇到的各种不同大小尺度工件的特征。因此基于此特征图像进行目标边界框回归,可以提升网络对于不同尺度目标的适应调节能力进而提高边界框的预测精度。

2.3 损失函数

本文所使用的损失函数由类别损失、边界框位置损失与掩码预测损失三部分组成。总损失函数L=∂1Lclass+∂2Lbbox+∂3Lmask如下式所示:

L=∂1Lclass+∂2Lbbox+∂3Lmask

(7)

(8)

(9)

(10)

(11)

(12)

(13)

(14)

Lmask掩码预测损失定义为:

(15)

式中i表示图片中的像素点序号,N为像素点总数。xi代表第i个像素点所属类别的预测值,yi代表第i个像素点所属类别的真实值。

3 基于视觉引导的堆叠工件分拣机器人

堆叠工件分拣机器人以广州数控RB06-900六轴工业机器人为主体,在其机械臂上安装了英特尔D435i深度相机与SRT公司生产的SFG-FMA4-M5072柔性夹爪末端执行机构。由深度相机获取容器内杂乱堆放的工件图像,控制器对获取的容器内堆叠工件图像进行分析处理,根据工件识别定位结果引导工业机器人进行工件夹取、搬运等分拣操作。研发的堆叠工件分拣机器人作业系统如图5所示。

图5 堆叠工件分拣机器人系统

基于构建的多尺度特征注意Yolact网络可实现对堆叠工件中可分拣工件的识别,但要实现对工件的抓取,需要计算工件抓取点在世界坐标系下的坐标与旋转角度,进而确定机器人的抓取位姿。令机器人的抓取位姿G={xw,yw,zw,a,b,c},其中xw,yw,zw为工件抓取点在世界坐标系下的坐标值,a,b,c为机器人末端柔性夹爪中心点绕世界坐标系的x,y,z轴的旋转角度。坐标转换示意图如图6所示,图中u-o1-v为像素坐标系,x-o2-y为物理坐标系,xc-o3-yc-zc为相机坐标系,xw-o4-yw-zw为世界坐标系。

图6 坐标转换示意图

获取工件抓取点像素坐标与旋转角度方法的具体步骤如下。

步骤1:令机器人的抓取位姿G={xw,yw,zw,a,b,c},其中xw,yw,zw为工件抓取点在世界坐标系下的坐标值,a,b,c为机器人末端柔性夹爪中心点绕世界坐标系的x,y,z轴的旋转角度。工件抓取点坐标xw,yw,zw定义如下:

(16)

式中,R、T为世界坐标系相对于相机坐标系的旋转、平移矩阵。u0、v0为图像中心点的像素坐标,cx、cy为工件抓取点在像素坐标系下的像素坐标,f为相机焦距,d为由深度相机获取的工件抓取点与摄像头光心之间的距离,dx,dy为图像中u,v方向上一个像素点对应的真实距离。

(17)

式中,fk表示预测出的第k个目标工件,Ω为采集到的工件图像;K表示网络预测出的目标总数,F表示实例分割网络的推理过程,conf(fk)表示第k个待抓取工件的置信度。

(18)

步骤8:若a2与a1的符号相同,则取a2为工件的旋转角度。若a3与a1的符号相同,则取a3为工件的旋转角度。即机器人抓取工件旋转角度φ定义为:

(19)

步骤9:根据步骤5得到的抓取点像素坐标{cx,cy}和步骤8得到的机器人抓取工件旋转角度φ,输出机器人抓取位姿参数G={xw,yw,zw,a,b+φ,c},机器人执行抓取工件操作。

4 实验分析

4.1 模型训练平台与工件数据集

深度学习平台的配置为Ubuntu18.04系统,两块显存为11G的GeForce_RTX_2080_TiGPU,python版本为3.6.5,pytorch版本为1.2.0,Cuda版本为10.1。

训练参数配置中批大小Batchsize设置为8,学习率设置为0.002,训练回合数为2 000,采用随机梯度下降法(SGD)对网络各层权重进行优化。

工件数据集使用自建的堆叠空调电机转轴数据集,利用深度相机对图像进行采集,设计了随机摆放的不同堆叠程度、不同数量的工件场景,涵盖了在实际工业分拣场景中工件可能出现的所有场景。数据集共采集800张图片,部分示例图像场景如图7所示。为了提高网络泛化能力,本文采用随机镜像、随机翻转、随机旋转、光度扭曲等数据增强方法对实验数据集进行增强,增强后的数据集共3 00张图片,其中复杂堆叠场景下的图片1 148张,轻微堆叠场景下的图片1 184张,无堆叠场景下的图片868张。将全部标注图片转化为coco数据集格式,并按照8∶2的比例划分为训练集与验证集。利用labelme软件对工件数据集进行标注,标注信息可提供深度学习网络训练所需要的工件掩码特征。

图7 数据集部分图像

4.2 评价指标

本实验采用实例分割模型通用评价指标MAP(平均精度均值)来评判算法模型的好坏,MAP的计算方法如下:

首先根据样本的真实值与预测值将样本划分为4种类型:

表1 样本类型划分

然后计算精确度(Precision)与召回率(Recall),P指精确度(Precision)计算方式如式所示:

(20)

R指召回率(Recall)计算方式如式所示:

(21)

以P为纵轴,R为横轴绘制P-R曲线,该曲线与坐标轴围成的面积即为单类别的AP。MAP即为所有类别AP的平均值。

4.3 实验结果对比分析

为了验证本文提出的多尺度特征注意Yolact网络的有效性,分别与Yolact、改进掩码模板生成分支的Yolact、引入膨胀编码的Yolact、Mask-RCNN (Resnet50)[19]、Mask-RCNN(Resnet101)[19]、改进Mask-RCNN[21]、FCIS[17]共7个网络进行对比实验。

定性分析。为验证所提出网络对工件掩码的提取效果,堆叠工件掩码提取效果对比结果如图8所示。图8(a)为标准Yolact网络对堆叠工件掩码提取结果,图8(b)为本文提出的多尺度特征注意Yolact网络对堆叠工件掩码提取结果。由图8第一行工件图像掩码提取结果可看出标准Yolact网络在对工件图片掩码进行预测时存在掩码不完整的情况。而本文构建的多尺度特征注意Yolact网络可以完整的将掩码预测出来。由图8第二行工件图像掩码提取结果可以看出由标准Yolact网络得到的工件掩码的边缘比较模糊,而由本文提出网络得到的工件掩码的边缘细节效果较好,掩码更加贴近工件边缘。由图8第三行工件图像掩码提取结果可以看出,由标准Yolact网络提取的工件掩码存在误判情况,而由本文提出网络提取的工件掩码较为准确,可以更好地区分出上下方工件。

图8 堆叠工件识别结果对比图

为验证所提算法在实际分拣作业中采集的不同场景下堆叠工件图像进行识别的效果,分别与Yolact、Mask-RCNN(Resnet50)、Mask-RCNN (Resnet101)、改进Mask-RCNN等4个网络进行实验对比,对比结果如图9所示。图中,第一列为不同对比场景中相机采集的实际工件场景图,从左向右分别为Mask-RCNN(Resnet50)、Mask-RCNN (Resnet101)、改进Mask-RCNN、Yolact等算法识别结果图。图9(a)为无堆叠场景下识别对比结果,图9(b)为轻微堆叠场景下识别对比结果,图9(c)为复杂堆叠场景下识别对比结果。由图9(a)识别结果可以看出,虽然所有对比算法均识别出了简单无堆叠场景下的工件图像,但是Mask-RCNN (Resnet50)、Mask-RCNN(Resnet101)、改进Mask- RCNN等对比算法识别结果不完整,均出现了识别结果部分缺失的问题,Yolact算法虽然较完整的识别出了工件图像,但是存在识别结果边界不能完全贴合实际工件的图像,由此导致机器人在抓取过程中出现定位不准确问题。由图9(b)识别结果可以看出,在轻微堆叠场景下,Mask-RCNN(Resnet50)、Mask-RCNN(Resnet101)、改进Mask-RCNN等对比算法识别结果仍然存在识别结果不完整情况,并出现了漏检问题;而Yolact算法和本文所提算法均完整识别出了所有可分拣工件图像,但是本文所提算法识别结果边缘更贴合实际工件图像。由图9(c)识别结果可以看出,对于复杂堆叠场景下工件图像,Mask-RCNN(Resnet50)、Mask-RCNN(Resnet101)、改进Mask-RCNN等的识别结果出现了较多的漏检问题,甚至Mask-RCNN(Resnet101)、改进Mask- RCNN的识别结果出现了误检问题,导致下方叠压工件被错误识别;Yolact算法在复杂堆叠场景下也出现了误识别问题,导致不易抓取工件的误识别。本文所提算法均完整识别出了所有可分拣工件图像,并且识别结果边缘更贴合实际工件图像。因此,由大量实验结果可以看出,在非结构化场景下,本文提出算法较对比算法对工件图像中可分拣工件的识别更为准确,并且在掩码预测的完整度与边缘细节效果上均强于对比算法,不会出现对比算法造成的掩码缺失与边界不贴合工件等问题。

图9 对比网络识别结果对比图

定量分析。为进一步定量分析所提算法性能,分别与Yolact、改进掩码模板生成分支的Yolact、引入膨胀编码的Yolact、Mask-RCNN(Resnet50)、Mask-RCNN(Resnet101)、改进Mask-RCNN、FCIS等7个网络进行实验对比,对比结果如表2所示。由表2可知,改进掩码模板生成分支的Yolact网络与标准的Yolact网络相比其Mask_MAP提升了1.22个百分点,证明本文提出的多尺度融合与特征注意机制可以提高网络对目标物体的分割精度。引入膨胀编码的Yolact网络对比标准的Yolact网络其B_box_MAP提升了1.74个百分点,Mask_MAP提升了1.5个百分点,证明以感受野更加丰富的特征图像进行预测会提高网络完成目标检测和语义分割两大任务的效果。多尺度特征注意Yolact网络在B_box_MAP与Mask_MAP上均达到最大值,证明本文提出的网络相对于标准的Yolact网络在边界框回归与掩码预测两个方面均有所提升,可以更好地引导视觉机器人系统进行工件分拣任务。

表2 平均精度均值对比

模型大小与处理单张图片所用时间对比如表3所示。由表3可以得知本文提出的多尺度特征注意Yolact算法模型较标准Yolact算法模型在模型大小上增加了2.1 M,处理单张图片所需时间增加了0.14 s。此时长在满足实际工件分拣作业需求的可接受范围之内。本文所提出的算法网络在与标准Yolact算法处理单张图片所用时间相差无几的情况下有效提升了工件识别的准确率。

表3 实时性对比

为进一步验证所提网络的有效性,将所提网络部署在工业机器人系统中,并研发了一种堆叠工件分拣机器人。按照空调电机转轴实际生成场景构建测试环境,每次将15个空调电机转轴随机摆放在待抓取区域,由机器人连续抓取直至将所有空调电机转轴全部取出,并利用工件分拣机器人的作业情况分别进行了900次抓取对比测试实验。对比实验分别采用基于所提网络、标准Yolact算法的视觉工件分拣机器人作业情况进行对比,机器人根据对比算法得到的工件位置信息对工件进行抓取并放置于目标位置。本文以空调电机转轴分拣成功率作为性能评价指标,定义如下:

(22)

设计的实验分为A组与B组两组,在A组实验中使用标准的Yolact算法对工件进行识别,B组实验使用所提的多尺度特征注意Yolact算法进行工件识别。两组实验中工件的位置信息与机器人的抓取位姿均由对应算法获得。实验对比结果如表4所示,基于本文所提网络的视觉机器人工件分拣系统完成堆叠工件分拣作业的成功率为97.5%。与标准Yolact算法的视觉机器人工件分拣系统95.8%的成功率相比提高了1.7%。识别并输出每个电机转轴的机器人抓取位姿并由机器人进行抓取及放置的平均时间为4.62 s。因此基于所提算法的视觉机器人工件分拣系统满足实际应用场景需求,能有效提高空调电机转轴自动化生产的智能化水平。

表4 空调电机转轴抓取成功率对比

5 结束语

针对非结构化场景中存在的多工件堆叠遮挡等问题,提出了基于多尺度特征注意Yolact网络的堆叠工件图像分割网络。所提网络基于多尺度特征融合器与注意力机制,有效提高了网络对于堆叠工件图像特征的学习能力;基于膨胀编码增强算法对于不同尺度大小目标的适应能力,提升了网络对堆叠工件定位回归的精度,最终研发了一种机器人工件分拣系统,并将该系统应用于实际空调电机转轴分拣任务中,实验结果证明了机器人工件分拣系统具有良好的性能。

猜你喜欢

工件尺度实例
基于机器视觉的传送带工件动态抓取应用
工业机器人视觉引导抓取工件的研究
四爪单动卡盘如何校正工件
尺度
以长时间尺度看世界
典型U形件的弯曲成形方法
9
完形填空Ⅱ
完形填空Ⅰ
室外雕塑的尺度