APP下载

基于机器视觉技术的猪行为活动无接触识别系统①

2020-04-24吴世海鲍义东陈秋实

计算机系统应用 2020年4期
关键词:卷积神经网络深度

吴世海,鲍义东,陈 果,陈秋实

(贵州航天智慧农业有限公司,贵阳 550081)

引言

随着人们日常消费意识和健康意识的提高,肉类的需求量在逐年增加,尤其是猪肉的需求量大幅上升.猪养殖产业规模增大,生猪出现病患的可能性也随之增加,若未及时干预或排除这些隐患,可能会造成严重的经济损失和人力损失.生猪在生长过程中可能出现的众多疾病在亚临床和临床症状表现之前,通常伴随自身行为的改变,同时导致各种外在生理参数发生变化,如会出现日常活动量和进食量大量减少,粪便干燥,尿液浑浊等现象.监测生猪行为活动和生理表现可以及时发现生猪病变情况,提早发现威胁生猪健康的因素,有利于防止烈性传染病在猪群内的传播.

人工监测是传统的猪养殖监测方法,也是目前猪养殖产业的主要监测方法.但人工监测受主观因素影响大,需要具备猪养殖经验的从业人员监督分析,人力成本较高,而且人工监测方法无法实现对生猪行为活动和生长状态的实时监测.在大型商业猪养殖模式中使用人工监测方法监测分析猪个体和群体行为活动规律是不切实际的,因此,近些年来,养殖信息化相关装备和技术迅速发展,并得到了越来越多人的关注.比如应用于猪个体识别的无线射频标签[1]、应用于检测猪个体运动加速度的加速度计量器[2]、应用于检测猪是否存在跛脚行为的压力垫[3]和应用于检测猪群体饮用水量的水量传感器[4]等,但这些信息化技术都存在一个限制条件,即需要使用附着在猪个体身上的传感器获取数据.现有的猪养殖产业中,猪的生长场景决定了这些接触式监测方法的局限性,猪个体之间或猪与生长环境中物体的相互摩擦和以及猪的移动均易导致接触式传感器遗失.

机器视觉在20 世纪70年代末开始应用于农业和畜牧业领域[5],但由于图片和视频采集装置中的软硬件技术水平较低、计算机处理图像速度较慢和缺乏有效的目标行为分析算法等,机器视觉技术在农业和畜牧业中未得到广泛应用.随着相应技术的发展,这些问题逐渐都得到了解决,如段玉瑶等人在2015年结合生猪体态特征提出了一种优化特征提取的压缩感知跟踪算法[6].该方法利用改进后的椭圆窗口来优化跟踪,并增大了灰度特征的权重提高特征提取的准确度,实现有效跟踪.孙龙清等人在2017年提出了利用人工交互分水岭进行区域分块,结合改进的GraphCut算法进行图像前景和背景的分割,有效分割生猪图像[7].

目前,猪养殖产业发展趋于集约化、自动化和信息化,智能监控是现代化集群式养殖模式不可缺少的一部分[8].

在此背景下,本文提出了一种基于机器视觉技术的猪行为活动的实时无接触监测系统,利用CCD(Charge-Coupled-Device)相机实时录取猪生长场景的视频,系统分析视频文件,识别视频中猪目标个体及场景相关信息,分析猪目标个体的行为活动(如运动行为、伏地行为、呼吸行为、饮食行为和排泄行为等),监测猪目标个体的运动量、饮食量和排泄情况,从而实时监测猪的健康情况和生长情况.

1 猪目标行为图像的获取与分类

利用CCD 相机实时拍摄猪舍中猪的行为活动,相机录制帧率为60 f/s.Lind 等人[9]在猪目标识别算法研究中,将视频分帧截取图像后,每间隔10 帧更新一次,可以减弱猪运动缓慢对精准识别的影响[10],本文采用相同的更新速度.使用卷积神经网络自适应提取图像中猪行为相关特征,可以适配不同的光照强度,抑制光照变化对结果的影响.

为训练出具备良好适应性和识别精度的自适应深度学习网络,本文录制并标记了含1200 组猪行为活动的视频序列.本文使用的数据均为白天录制采集的视频图像数据,包含晴天、阴天和雾雨等多种天气和光照场景.在视频录制过程中,每隔5 s 生成一个帧图像序列组,序列组中包含5 s 内截取的30 帧图像.

本文监测识别猪的6 种行为活动,分别为运动行为、跛足行为、伏地行为、呼吸行为、饮食行为和排泄行为.针对6 种行为活动,本文对每一组图像序列都做标记,标记为运动行为、跛足行为、伏地行为、呼吸行为、攀爬行为、饮食行为和排泄行为之一.有3 位专业人员参与标记,当且仅当3 位专业人员对某组序列的标记相同时,该标记才被使用.

2 猪行为活动实时无接触监测系统

系统通过分析拍摄的猪视频,识别视频中猪目标个体和场景中相关信息,分析猪目标个体的行为活动(如运动行为、跛足行为、伏地行为、呼吸行为、和饮食行为和排泄行为等),监测猪目标个体的运动量、饮食量和排泄情况.

2.1 CCD 相机系统

自1998年光学成像系统首次应用于监测猪行为活动后,众多研究者开始关注机器视觉技术在猪养殖领域的应用[11-15],可见光相机和深度相机是获取猪行为图像的主要工具,常用拍摄角度有俯视视角和侧视视角.俯视视角能获取猪相对于猪生长场景的位置变化,能避免猪之间的遮挡和距离相机远近导致猪大小和位移测量不准等问题.侧视视角存在遮挡和距离失真问题,但能观察到更多猪的行为细节.

本文利用CCD 相机分别获取俯视视角和侧视视角的图像,帧率为60 f/s.利用深度学习算法、信息融合技术,融合俯视视角和侧视视角序列图像中深度特征,自动识别猪目标的行为活动类型,监测猪的生长状况和生理信息.

2.2 猪行为识别方法

本文采用多层卷积神经网络(Conventional Neural Network,CNN)结构,可以自适应提取图像中猪目标的行为相关特征.相对于传统的阈值分割法、色彩分割法和角点检测等人工设计的特征检索方法,卷积神经网络训练简单,适应性强,更适合处理分析自然场景下猪的行为活动.本文使用卷积神经网络提取序列图片的行为特征,对序列中行为特征进行特征融合,融合后的特征由全连接层部分识别分类,最终识别出序列中猪的行为活动.网络结构如图1,主要包含3 部分:卷积部分、特征融合部分和行为分类部分.系统通过CCD 相机采集猪行为活动序列图像,利用卷积神经网络提取图像的深度特征,再使用特征融合方法融合行为序列图像的深度特征最后根据融合的深度特征识别图像序列中猪的行为活动.

图1 基于机器视觉技术的猪行为活动无接触识别系统数据处理结构图

图1 中卷积部分提取原始图像的深度特征,通过反向传播更新参数,同时提取局部纹理特征和整体形态特征.在本文实验中,为实现每个图像序列的行为活动分类,需要提取俯视相机和侧视相机采集到的两个图像序列的深度特征.俯视图像序列和侧视图像序列,各包含30 张图片(Xi,i=1,2,···,30),先后依次送入卷积部分提取特征(Fi,i=1,2,···,30).

其中,w,b 分别表示卷积部分的网络权重参数和阈值参数,f 为卷积操作,使用ReLU 激活函数.为减少网络参数,提取同一批次的图像序列的特征时,卷积部分的权重和阈值参数共享使用.

输入的每张图像大小为128×128×3,由于深度学习的卷积计算是对四维向量作卷积,把输入图片扩展为N×128×128×3,其中N 表示批处理大小.输入第一层卷积神经网络,卷积核大小为11×11×3×96,步长为2,输出向量大小为N×64×64×96,输出向量的通道数与卷积核的个数一致,输出特征图长宽为原图像的一半,不使用池化过程,可以减小网络结构,减少计算量,促进系统实时监测.第二层卷积神经网络的卷积核大小为3×3×96×256,步长为2,输出向量大小为N×32×32×256.第三层卷积神经网络的卷积核大小为3×3×256×256,步长为2,输出向量大小为N×16×16×256.第四层卷积神经网络的卷积核大小为3×3×256×256,步长为2,输出向量大小为N×8×8×256.第五层卷积神经网络的卷积核大小为3×3×256×128,步长为2,输出向量大小为N×4×4×128.

第二部分为特征融合部分,融合卷积部分提取到的俯视图像序列和侧视图像序列的深度特征.每张图片提取到的特征大小均为N×4×4×128,包含128 个用于后续行为分类的特征.采用相同的卷积网络结构提取到的特征大小一致,可以融合扩展为一个包含全部序列特征的特征:

将第五层卷积神经网络输出的特征向量融合,大小为N×4×4×7680.

第三部分为行为分类部分,由全连接神经网络实现,将融合后的特征向量(F)展开后送入全连接层提取高维深度特征信息(F'),使用Softmax 分类,识别行为活动:

其中,g 为全连接部分的激活函数ReLU,w'和b'为全连接部分的权重参数和阈值参数.

使用交叉熵损失函数约束反向传播过程:

2.3 实验数据处理平台

使用Tensorflow 平台编写识别猪行为活动的卷积神经网络算法,硬件环境为内存16 GB,Intel(R)I5-1607,RTX2080 Ti GPU.

3 结果与分析

为评估本文提出的基于机器视觉的猪行为活动的实时无接触监测系统的性能核准确率,本文使用标定的数据集,采用五折法训练测试结果,给出识别各类行为的准确率.五折法是深度学习方法中常用的训练方法,将原始数据集均等分为5 份,每份所含行为活动种类核数量应大致相当.每次选择其中4 份用于训练,剩余一份用于测试,下一次选择不完全同的4 份训练,剩余一份测试,5 次训练核测试后求测试准确率的平均值.首先本文分别使用俯视图像序列、侧视图像序列以及俯视图像序列结合侧视图像序列识别猪的行为活动,结果如表1.

表1 猪行为活动识别结果(单位:%)

由表1 结果可以得到3 个结论:在识别运动和呼吸行为时,俯视图像序列能比侧视图像序列提供更多信息,分类准确率更高;识别跛足、伏地和排泄行为时,由于俯视角度无法获得猪上下空间中的行为信息,分类准确率比使用侧视图像低;同时使用俯视和侧视图像序列识别猪的行为得到的准确率高于单独使用单一视角的图像序列,说明利用俯视和侧视视角图像比单一视角能得到更多的行为识别信息,而且本文提出的识别方法能充分利用融合后的信息,从而更准确地识别猪的行为.

此外,本文还复现了其他基于机器视觉的方法,并使用本文标定的数据集根据五折法测试这些方法的准确率,和本文提出方法作比较.

由表2 可知,本文在检测识别各行为活动时,准确率均高于或大致等于现有的检测方法.说明基于卷积神经网络的机器学习算法,在检测识别图像序列中猪的行为活动方面具有显著优势,可适用性更广,更适合应用于在自然场景下实时监测识别猪的行为活动.

表2 猪行为活动识别结果(单位:%)

4 结论和展望

本文提出了一种基于机器视觉技术的无接触识别猪行为活动的系统,利用卷积神经网络提取图像的深度特征,再使用特征融合方法融合行为序列图像的深度特征,最后根据融合的深度特征识别图像序列中猪的行为活动.相对于现有基于人工设定特征的行为识别方法,本文提出的方法能自适应地提取行为特征,适用范围更广,对自然场景中猪的行为识别准确率更高.但是本文只使用了CCD 相机采集视频图像信息,采集信息的方式较为单一,为了更准确地识别猪行为活动,可以优化为使用多传感器系统采集不同种类的信息,比如红外相机、压力传感装置和虹膜采集装置等,这些问题仍待进一步研究.

猜你喜欢

卷积神经网络深度
基于全卷积神经网络的猪背膘厚快速准确测定
基于神经网络的船舶电力系统故障诊断方法
四增四减 深度推进
深度思考之不等式
MIV-PSO-BP神经网络用户热负荷预测
基于改进Hopfield神经网络的对地攻击型无人机自主能力评价
一种基于卷积神经网络的地磁基准图构建方法
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
简约教学 深度学习