针对宫颈异常细胞检测的SER-DC YOLO
2024-07-02李超炜杨晓娜赵司琦何勇军
李超炜 杨晓娜 赵司琦 何勇军
摘 要:由于宫颈细胞样本的液基薄层细胞学检测(thin prep cytologic test,TCT)图像内容复杂,背景颜色丰富多样,而且不同女性的宫颈细胞具有一定程度的天然差异,这给宫颈异常细胞的检测带来了很大的困难。为解决这一难题,提出了一种名为基于特征压缩与激发和可变形卷积(SE-ResNet-deformable convolution you only look once,SER-DC YOLO)的目标检测网络。该网络在YOLOv5的Backbone中融合注意力机制,添加了SE-ResNet模块,然后改进了SPP层的网络结构,并且使用可变形卷积来替换普通卷积,最后修改了边界框的损失计算函数,将广义交并比(generalized intersection over union,GIoU)改为α-IOU Loss。实验表明,该网络与YOLOv5网络相比,在宫颈图片数据集上召回率提高了1994%,精度提高了352%,平均精度均值提高了719%。相关代码链接:https://githubcom/sleepLion99/SER-DC_YOLO。
关键词:SER-DC YOLO;YOLOv5;目标检测;注意力机制;可变形卷积
DOI:10.15938/j.jhust.2024.01.013
中图分类号: TP31569 文献标志码: A
文章编号: 1007-2683(2024)01-0115-09
SER-DC YOLO for the Detection of Abnormal Cervical Cells
LI Chaowei1, YANG Xiaona1, ZHAO Siqi1, HE Yongjun2
(1School of Computer Science and Technology, Harbin University of Science and Technology, Harbin 150080, China;2School of Computer Science and Technology, Harbin Institute of Technology, Harbin 150006, China)
Abstract:Due to the complex content of Thin Prep Cytology Test (TCT) images of cervical cell samples with rich and diverse background colors and a certain degree of natural variation of cervical cells among different women, this poses a great difficulty in the detection of abnormal cervical cells To solve this challenge, a target detection network called SE-ResNet-Deformable Convolution You Only Look Once(SER-DC YOLO) is proposed The network incorporates the attention mechanism in YOLOv5s Backbone, adds the SE-ResNet module, then improves the network structure of the SPP layer and replaces the normal convolution with deformable convolution, and finally modifies the loss calculation function of the bounding box by replacing the Generalized Intersection over Union (GIoU) to α-IOU Loss Experiments show that the network improves recall by 1994%, precision by 352%, and average precision by 719% on the cervical image dataset compared with the YOLOv5 network Link to related code: https://githubcom/sleepLion99/SER-DC_YOLO
Keywords:SER-DC YOLO; YOLOv5; target detection; attention mechanism; deformable convolution
0 引 言
宫颈癌是女性最常见的癌症之一,2018年全球有57万病例,大约有311000女性死于该病[1]。并且根据全国癌症报告显示,中国女性宫颈癌发病率和死亡率逐年增长[2],因此宫颈癌的筛查非常重要。TCT方法是宫颈癌筛查的常用手段。但是该方法需要病理医生长期作业,容易引起视觉疲劳,造成诊断效率下降,增加了误诊、漏诊的概率。随着人工智能、大数据技术高速发展并逐步向各个领域延伸,病理诊断领域也迎来了技术变革。基于深度学习的目标检测算法可以实现宫颈异常细胞的自动化检测,显著提升了病理医生的诊断效率。
主流的目标检测算法按阶段可分为两大类:
1)两阶段目标检测:该类算法在第一阶段产生候选框并提取候选区域特征,在第二阶段利用分类、回归方法处理候选区域特征,对目标物体进行分类,分类精度较高。Ren等[3]提出了快速的区域卷积神经网络(faster region convolutional neural network,Faster R-CNN),其利用卷积层和池化层处理输入图像产生特征映射,对每个ROI提取固定长度的特征向量,将结果输入全连接(cully connected,FC)层,进行目标物体的分类与回归。
2)一阶段目标检测:该类算法不需要生成候选框,直接对输入图像的每个像素点位置进行分类、回归,输出目标物体的检测框位置、类别标签、预测标签概率,检测速度较快。Liu等[4]提出了SSD(single shot multiBox detector,SSD)算法,该算法在VGG(visual geometry group,VGG)基础上搭建,融入回归思想和Anchor机制,对全图各个位置的多尺度区域进行回归,在维持现有分类精度的前提下,提升了预测速度。Lin等[5]提出了RetinaNet算法,RetinaNet的Backbone由ResNet和FPN结合而成,采用Focal Loss计算网络损失用以缓解难易样本数量不平衡带来的影响,该网络在COCO数据集进行实验,其平均精度均值(mean average precision,mAP)达到391%,每秒传输帧数为5。
目标检测是近年热门的研究方向,其在医学图像分析中也取得了重大进展,有学者将其应用于宫颈癌的辅助诊断。Elakkiya等[6]使用小目标检测的对抗网络与自动编码器相结合的方式来检测宫颈异常细胞,其对自动编码器的参数进行了微调,并对对抗网络的超参数进行了归一化和优化处理。经过实验表明,该方法在检测异常宫颈细胞时的效率有显著的提升。Yao等[7]在YOLOv3上添加级联任务分类器。此外,为了解决不可靠标注带来的影响,采用平滑的方式处理标签。Xia[8]提出了一种平行串联融合的宫颈癌细胞检测网络,与使用分类网络作为骨干的传统框架相比,其在各个模块中使用了不同的组合策略,并且设计了五个不同的头部组件,以找到最佳的网络结构,该网络还对宫颈癌的细胞图像进行了数据的预处理,如使用ROI滑动窗口进行裁剪。实验结果表明该网络在检测异常宫颈细胞上的最佳性能优于其他的传统框架。Liang等[9]提出了一种有效的宫颈癌细胞检测方法,该方法在Faster R-CNN上添加了特征金字塔,并在网络中加入了学习背景信息的机制,而不是通过一些方式来手动选择。实验结果表明,所提出的网络在小数据集上有着显著的提升,平均精度和平均召回率分别达到了263%和357%,相比基础模型提高了约20%。Wang等[10]提出了一种基于残差神经网络的改进算法,该算法首先引入了动量参数,然后改变训练样本的数量,并压缩了模型参数,增强了特征表达的深度,使其在宫颈细胞数据集数量较少的情况下,模型还有着不错的精度。Yan等[11]为了弥补现在的检测方法对阴性样本利用的不足,他们提出了一种叫对采样的方法。此方法可以提取有代表性的负样本并生成样本对图像。他们还提出了一种混合采样方法,并设计了一种宫颈细胞检测器。经过实验,该方法的平均精度达到了571%,比同等级别的R-CNN和Faster R-CNN高47%和58%。郑欣等[12]使用ResNet50的预训练模型作为YOLOv2的骨干网络,并对宫颈细胞团簇训练数据进行扩增。周佳琳[13]在原有SSD的基础上,结合正反向特征融合对高低分辨率的特征图进行改进,改进后网络模型的mAP值达到8153%。梁義钦等[14]提出了一种两阶段簇团宫颈异常细胞检测方法,实验表明,该方法在检测异常簇团宫颈细胞召回率达到8969%,分类准确率达到8781%。Jia等[15]以SSD网络为基础,使用中心损失函数计算损失。经过实验,在同一数据集上的分类准确率比YOLOv1、SSD分别高出754%、492%。Long等[16]对Mask R-CNN进行改进,添加神经结构搜索和特征金字塔网络架构实现跨层连接,使用软NMS代替原来的NMS减少锚框的误删,提高模型在TCT图像细胞数据集上的准确度、召回率和分割精度。
但是如何在数十亿像素的图片上检测到微小且形态各异的异常细胞,结合周围区域的信息辅助异常细胞的检测,避免漏检、错检仍然是需要解决的问题。
为了解决上述难题,本文模仿病理医生的检测方式,提出了一种名为SER-DC YOLO的目标检测网络,该网络在YOLOv5网络的基础上添加了注意力模块,该模块增强了模型对图像内部区域的关注,使得网络在训练过程中能够注意到宫颈异常细胞与正常细胞以及垃圾杂质的区别,加强其判别能力;针对宫颈异常细胞形态各异的特点,将普通卷积替换成可变形卷积,增强网络的感受野,提取更多有效的特征;针对宫颈细胞图片背景复杂的特点,修改损失函数,提高网络的抗噪能力。上述方法的改进,实验表明能有效地提升宫颈异常细胞的检测效果。
1 模型与算法
本文方法基于YOLOv5改进而来,首先在Backbone中融合注意力机制,提高了网络对于细胞图像局部特征的关注,然后改进了SPP层的网络结构,使用可变形卷积[17]替换普通卷积,提高了网络的泛化能力,最后修改了边界框的损失计算函数,将广义交并比[18]改为α-IOU Loss[19],提高了网络的抗噪能力。
1.1 SE-ResNet模块
在深度学习的图像任务中,注意力机制能够提取特征图中的关键性可用信息,主要分为两种:通道注意力机制和空间注意力机制。本文检测任务对通道注意力机制尤为关注,原因如下:宫颈异常细胞检测属于特定任务,我们希望利用深度学习过程完成任务的过程中,尽可能地模仿医生操作的内在逻辑。事实上,病理医生在镜下诊断宫颈异常细胞时,需要观察同一视野下的所有宫颈细胞,以宫颈正常细胞作为参照,在细胞形态上将可疑细胞与之对比,做出最终诊断。换言之,医生不但对异常细胞的本身特征感兴趣,而且关注与之联系紧密的周围区域内的内容。该内容可能是正常宫颈细胞,也可能是杂质等其他影响因素。CNN的卷积操作对输入图像分批进行特征提取,提高了对不同图像之间共通性的关注,同时忽略了对同一张图像内部的通道关联性的提取。
文[20]中给出了残差结构和SE基础单元的结合体:SE-ResNet模块,其网络结构如图2所示。SE-ResNet模块在最大程度保留原特征矩阵的基础上,学习新的通道注意力特征矩阵。故本文选取该模块在YOLOv5网络中添加通道注意力机制。YOLOv5的骨干网络为CSPNet,是提取特征最为关键的部分。本文在CSPNet中添加3个SE-ResNet模块,分别位于:
1)CSPNet网络的第二次、第三次卷积操作前,增强对图像内部通道间的关注,使得网络在训练中能够注意到宫颈正常细胞与宫颈异常细胞之间的细微形态差别;
2)Backbone提取特征后、Neck特征融合前,Neck后的网络结构会对不同尺寸的特征图进行统一的输出预测,在这个位置添加SE-ResNet模块,重构通道注意力机制,起到了承上启下的作用。
1.2 改进DC-SPP模块层的卷积
宫颈异常细胞是由宫颈正常细胞病变而来,两者在病变早期,相似度高,只在细胞形态特征上具有细微差别,比如细胞核面积、纹理等。本文在YOLOv5中的SPP层使用可变形卷积核,使SPP层能自动化调整视野范围,增强网络对宫颈癌异常细胞的形变、大小特征的敏感性。在YOLOv5中SPP层负责提取不同尺寸输入张量的特征,但是常规的卷积核尺寸大小固定,工作时对宫颈异常细胞核面积、核纹理等细节特征不够敏感。因此,在SPP层引入可变形卷积技术。可变形卷积通过在输入特征映射上添加一个额外的普通卷积层来获得输出偏移。输出偏移域和输入特征映射的空间分辨率相同,均为H×W,而输出偏移的通道维度为2N,对应着N个二维空间偏移量,表示输入特征映射中每个像素点在x方向、y方向上的偏移量。将输出偏移与输入特征映射相结合,利用双线性插值方法计算偏移后的采样点坐标位置,而后进行普通卷积操作,即得到可变形卷积的输出特征映射。
使用可变形卷积结构能够根据不同的宫颈细胞图片调整卷积核大小,丰富同层感受野尺寸,提取到更多的宫颈细胞的有效特征。故而,本文将YOLOv5的SPP层中的普通卷积替换为可变形卷积,并将其命名为可变形卷积-空间金字塔池化层(deformable convolution spatial pyramid pooling,DC-SPP),具体网络结构如图3所示。
1.3 幂化边界框损失函数
宫颈异常细胞检测任务中输出的预测边界框将用于裁剪小细胞图像,在此基础上进行后续流程中的细胞核质分割、细胞综合分类等任务。因此,预测边界框的精确度越高越好,故本文将YOLOv5的原边界框损失函数幂化为α-IoU Loss形式。
YOLOv5采用GIoU作为其边界框损失函数,该函数通过引入最小凸形解决了IoU非重叠样本梯度消失的问题,GIoU和IoU的具体公式描述如下。
GIoU=1-IoU+|C\(B∪Bgt)||C|(1)
IoU=|B∩Bgt||B∪Bgt|(2)
其中:B为预测边界框;Bgt为真实目标框;C为包含B和Bgt的最小包围框。
但GIoU仍存在一定缺陷,如:当B和Bgt完全重合时GIoU退化为IoU,无法加快收敛速度,不能直接反映B和Bgt之间的重合距离等。
文[17]提出一种名为α-IoU Loss的损失函数,该函数可以对现存所有的基于IoU计算的损失函数进行幂化,使它们转为具有幂化IoU、幂化附加正则项、可调节幂化参数α的统一格式。作者在文中通过实验证明,与现有的IoU Loss函数相比,α-IoU Loss抗噪声能力更好,在小数据集上具有更强的鲁棒性,使得目标检测中边界框的回归更为精确。假设X∈Rdx是输入空间,Y∈Rdy是标注空间,dx和dy分别表示输入维度和标注为度。给定数据集D={(xi,yi)}ni=1的n个训练样本,每个(xi,yi)∈(X×Y),任务是学习一个将输入空间映射到标注空间的函数f∶X→Y。在目标检测中,每个yi=(ci,k,Bi,k)mik=1,其中,mi是xi中的目标总数,ci,k表示xi中第k个目标对应的类别,Bi,k为其边界框。在上述假设中,经过一系列的数学简化,α-IoU通用公式如下:
Lα-IoU=-log(IoU)=Llog(IoU),a→0
Lα-IoU=1-IoUα,α→0(3)
将式(2)与式(3)结合,使用相同的power参数α归纳可得如下公式:
LGIoU=1-IoUα+|C\(B∪Bgt)||C|α(4)
2 实验分析
SER-DC YOLO算法由YOLOv5网络改进得到,本节
针对改进部分设计了消融实验和对比实验,验证SER-DC YOLO算法的有效性,展示该算法对宫颈异常细胞检测效果。本文的实验均在内部宫颈细胞样本数据集上进行,数据来源于哈尔滨医科大学附属第二医院、哈尔滨医科大学附属第四医院、精准元医学检验所、黑龙江省医院以及哈尔滨嘉润医院。
2.1 数据准备
实验所用宫颈细胞样本内部数据集的准备过程如下:首先,使用数字化全景扫描仪对宫颈细胞样本扫描,获取宫颈细胞样本全景图。其次,对全景图进行筛选,选出150例阳性样本、150例阴性样本。阳性样本中有50例样本包含异常团簇细胞;阴性样本中包含滴虫、放线菌、念珠菌、疱疹、细菌感染样本各15例;余下75例阴性样本均无微生物感染,其中包含5例萎缩细胞样本、5例化生细胞样本。然后,请哈尔滨医科大学附属第二医院和精准元医学检验所等机构的5位病理科主任进行标注,对标注后的全景图进行切分,得到内部宫颈样本数据集,该数据集的具体情况如表1和表2所示。最后,采用镜像翻转、旋转、缩放、模糊、添加噪音、HSV色彩变幻的方法对标注数据进行随机数据增强,将数据量扩充到原数目的5倍用作实验数据集,并且按照6∶2∶2划分训练集、验证集、测试集。
本节实验对宫颈样本进行检测时,按照需求将数据集合并为5类。具体类别如下:单个正常鳞状上皮细胞类、单个异常鳞状上皮细胞类、异常团簇细胞类、微生物感染细胞类、其他类细胞(包括萎缩细胞、化生反应细胞)。
2.2 评价指标
在介绍评价指标前,首选需要简单说明一下混淆矩阵中的符号:真阳性(TP)、假阳性(FP)、假阴性(FN)、真阴性(TN)。在本文实验中,当IoU≥05时,即认为预测框命中标注框;反之则认为预测框并未命中标注框。TP为正确命中当前统计类别标注框的预测框个数,FP为错误命中当前统计类别标注框的预测框个数,TN为正确命中其他类别标注框的预测框个数,FN为没有命中标注框的预测框个数。
目标检测模型的常用评价指标包括召回率(Recall)、分类精度(Precision)、平均精度(Average Precision,AP)、mAP,Recall用于评估模型预测结果是否全面,Precision用于评估模型预测结果是否准确,AP使用Precision-Recall曲线下方面积评价模型对某一类目标的分类性能,mAP对多个类别的AP值取平均。此外采用每秒检测的图片张数作为衡量模型的检测速度(frame per second, FPS)指标。上述评价指标的计算公式如下:
Recall=TPTP+FN(5)
Precision=TPTP+FP(6)
AP=∫10p(r)dr(7)
mAP=∑Nn=1AP(n)N(8)
FPS=CimgTimedetect(9)
其中:p(r)为Precision-Recall曲线;N为分类数据总类别数;n为当前数据的类别;Cimg为该组测试数据的图片张数;Timedetect为检测Cimg张图片所花费的时间。
2.3 实验设置
本文的实验基于Ubuntu2004操作系统,深度学习环境搭载于CUDA114、Pytorch181框架以及MMDetection框架2251,使用NIVDIA RTX2080TiGPU加速模型训练,训练模型参数设置如下:epoch设为300轮,batch_size设为8,图像尺寸设为640×640,超参文件中的mosaic项、translate项均置为0,为方便对比实验进行,其他项沿用YOLOv5的默认参数值。在学习率的调节上,使用warm up和余弦退火调整学习率预热模型,即先用较小的学习率,每个step增大一点学习率,直到达到预设的相对较大的学习率,能够加快模型收敛速度,实验时预设学习率为1×10-2。所有的对比实验均使用MMDetection进行训练和推理,除epoch、batch_size保持一致外,其余参数按框架的默认推荐值进行训练。
2.4 结果分析
观察表3可得:
1)观察A0-A3组实验结果,A1、A2、A3组的召回率、分类精度、mAP均比基础组A0高,说明本文方法的SE-ResNet、DC-SPP、α-IoU模块对检测效果有所助益。
2)观察A1/A2/A4、A1/A3/A5、A2/A3/A6组实验结果,从召回率角度来看,SE-ResNet+DC-SPP、DC-SPP+α-IoU的组合效果比单独分开的效果要好,DC-SPP、α-IoU;从分类精度来看,SE-ResNet+α-Io、DC-SPP+α-IoU的组合效果优于单独分开的效果;从mAP角度来看,两两模块组合比单独模块在检测方面的表现好。
3)对比A7组和A4/A5/A6组的实验结果可知,虽然本文所提方法SER-DC YOLO在Precision、mAP上的表现稍逊于A6组,但是在召回率上A6组高出245%,说明SER-DC YOLO有效降低了检测中异常细胞漏检的可能性。
4)观察A0和A7的实验结果可知,在召回率、分类精度、mAP上,SER-DC YOLO比YOLOv5s分别高出 2%、362%、72%,证明了SER-DC YOLO的有效性、可行性。
图4展示了在训练过程中YOLOv5s和SER-DC YOLO模型的分类精度变化。从整体上看,随着epoch增加,SER-DC YOLO的分类精度逐渐增加,在效果上优于YOLOv5s。
图5为YOLOv5s和SER-DC YOLO各检测类别的AP对比图,展示了mAP值的具体分布情况。观察图5内容,并结合mAP情况,重点关注本文所提方法,做出如下分析:
1)在不同的检测类别上,SER-DC YOLO模型的AP值均高于YOLOv5s模型,说明了本文方法在AP方面性能表现尚佳。
2)尽管SER-DC YOLO的mAP值仅有6478%,但对于个别子类的检测效果仍然可达75%左右,如:单个正常鳞状上皮细胞、单个异常鳞状上皮细胞、微生物感染细胞。
3)异常类细胞、其他类细胞的AP值并不高,但对于本文方法的总任务来说,后续会对异常类细胞进行重定性分类。因此,对于检测阶段来说,任务重心在于尽可能多地找出可疑的异常类细胞。
4)其他类细胞作为单个正常鳞状上皮细胞的区分项存在,主要包含了各种不规则的正常类细胞,后续不再做特殊处理。
图6对SER-DC YOLO的检测效果进行可视化展示,图6(a)、图6(b)、图6(c)分别来自不同的宫颈图片样本。其中,图6(a)和图6(b)样本中散落的鳞状上皮细胞较多,图6(b)样本中腺细胞、团簇细胞较多。观察图6可知,本文所提出的SER-DC YOLO网络对单个异常鳞状上皮细胞、异常团簇细胞、微生物感染细胞的检测精度高,在识别单个正常鳞状上皮细胞时,多选择散落、完整的细胞,尽量避开存在细胞质重叠细胞。
表4为本文所提出的方法和其他目标检测方法在内部宫颈图片图像数据集上的对比实验结果。由于添加了SE-ResNet模块,让模型更加关注信息量较大的通道特征,所以在mAP上均高于其他模型。其次使用可变形卷积代替普通卷积,增加了感受野以及对重要信息的捕捉能力,且α-IoU提高了IOU的目标损失和预测框的回归精度,所以在mAP和Recall上均高于其他模型。由于YOLOv5的Backbone和Neck都采用了CSP结构,在保证精度的同时大大减少了参数量,并且使用了大量的1×1卷积块来降维,所以在FPS上优于其他模型。因此,本文所提出的方法更适用于宫颈细胞图片图像检测任务。
3 结 论
本文对宫颈异常细胞检测的需求进行分析,决定采用一阶段目标检测算法完成该任务。针对实际检测中面临的漏检、错检问题,本文提出了SER-DC YOLO的目标检测网络,该网络在YOLOv5网络结构的基础上进行改进。首先,往Backbone添加SE-ResNet模块,通过注意力机制关注异常细胞的附近区域,模拟医生在诊断异常细胞是以同一视野下的正常细胞作为参照对象进行对比的行为,显著提高了模型的检测效果。其次,使用可变形卷积替代了SPP层的普通卷积,自适应调整卷积形状,丰富了不同尺寸的感受野信息,提取到更多有效特征,增强了网络对细胞形变、大小等特征的敏感度。最后,对边界框回归损失函数进行幂化,提高了网络的抗噪能力和预测框的回归精度。实验表明,SER-DC YOLO网络与YOLOv5网络相比,在宫颈样本数据集上的表现具有较大提升。
参 考 文 献:
[1] ARBYN M, WEIDERPASS E, BRUNI L, et al. Estimates of Incidence and Mortality of Cervical Cancer in 2018: a Worldwide Analysis[J]. The Lancet Global Health, 2020, 8(2): 191.
[2] KOLIOPOULOS G, NYAGA V N, SANTESSO N, et al. Cytology Versus HPV Testing for Cervical Cancer Screening in the General Population[J]. Cochrane Database of Systematic Reviews, 2017 (8).
[3] REN S, HE K,GIRSHICK R, et al. Faster R-cnn: Towards Real-time Object Detection with Region Proposal Networks[J]. Advances in Neural Information Processing Systems, 2015: 28.
[4] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot Multibox Detector[C]// European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 21.
[5] LIN T Y, GOYAL P,GIRSHICK R, et al. Focal Loss for Dense Object Detection[C]// Proceedings of the IEEE International Conference on Computer Vision, Honolulu, HI, USA, 2017: 2980.
[6] ELAKKIYA R, TEJA K S S, JEGATHA DEBORAH L, et al. Imaging Based Cervical Cancer Diagnostics Using Small Object Detection-generative Adversarial Networks[J]. Multimedia Tools and Applications, 2022, 81(1): 191.
[7] XIANG Y, SUN W, PAN C, et al. A Novel Automation-assisted Cervical Cancer Reading Method Based on Convolutional Neural Network[J]. Biocybernetics and Biomedical Engineering, 2020, 40(2): 611.
[8] XIA M, ZHANG G, MU C, et al. Cervical Cancer Cell Detection Based on Deep Convolutional Neural Network[C]// 2020 39th Chinese Control Conference (CCC). IEEE, 2020: 6527.
[9] LIANG Y, TANG Z, YAN M, et al. Comparison Detector for Cervical Cell/clumps Detection in the Limited Data Scenario[J]. Neurocomputing, 2021, 437: 195.
[10]WANG H, JIANG C, BAO K, et al. Recognition and Clinical Diagnosis of Cervical Cancer Cells Based on Our Improved Lightweight Deep Network for Pathological Image[J]. Journal of Medical Systems, 2019, 43(9): 1.
[11]YAN X, ZHANG Z.HSDet: A Representative Sampling Based Object Detector in Cervical Cancer Cell Images[C]// International Conference on Bio-Inspired Computing: Theories and Applications. Springer, Singapore, 2020: 406.
[12]郑欣, 田博, 李晶晶. 基于 YOLO 模型的宫颈细胞簇团智能识别方法[J]. 液晶与显示, 2018, 33(11): 965.
ZHENG Xin, TIAN Bo, LI Jinging. Intelligent Recognition Method of Cervical Cell Cluster Based on YOLO Model[J].Chinese Journal of Liquid Crystals and Displays,2018,33(11):965.
[13]周佳琳.基于改进SSD网络的宫颈细胞分类检测系统[D]. 北京:北京交通大学 2019.
[14]梁義钦,赵司琦,王海涛,等.两阶段分析的异常簇团宫颈细胞检测方法[J].哈尔滨理工大学学报,2022,27(2):76.
LIANG Yiqin, ZHAO Siqi, WANG Haitao, et al. A Two-stage Analysis of Abnormal Clustered Cervical Cells Detection Method[J]. Journal of Harbin University of Science And Technology,2022,27(2):76.
[15]JIA D, ZHOU J, ZHANG C. Detection of Cervical Cells Based on Improved SSD Network[J]. Multimedia Tools and Applications, 2021:1.
[16]LONG M, LIANG G, ZHENG Y, et al. Cervical Cell TCT Image Detection and Segmentation Based on Multi-Scale Feature Fusion[C]// 2021 IEEE 5th Advanced Information Technology, Electronic and Automation Control Conference, Chongqing, China, 2021, 5:192.
[17]DAI J, QI H, XIONG Y, et al. Deformable Convolutional Networks[C]// Proceedings of the IEEE International Conference on Computer Vision, Online, 2017:764.
[18]REZATOFIGHI H, TSOI N, GWAK J Y, et al. Generalized Intersection Over Union: A Metric and a Loss for Bounding Box Regression[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, 2019:658.
[19]HE J,ERFANI S M, MA X, et al. α-IoU: A Family of Power Intersection Over Union Losses for Bounding Box Regression[J]. Advances in Neural Information Processing Systems, 2021, 34:1.
[20]HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake, UT, USA, 2018:7132.
(编辑:温泽宇)
基金项目: 国家自然科学基金面上项目(61673142);黑龙江省自然科学基金杰出青年项目(JJ2019JQ0013);哈尔滨市杰出青年人才基金(2017RAYXJ013);哈尔滨理工大学杰出青年人才项目(20200203)
作者简介:李超炜(1999—),男,硕士研究生;
杨晓娜(2000—),女,硕士研究生
通信作者:何勇军(1980—),男,博士,博士研究生导师,E-mail:holywit@163com