APP下载

面向智慧监控的视觉感知与理解专题序言

2021-11-12高新波王楠楠梁荣华郑伟诗卢策吾宋一哲韩军功

西安电子科技大学学报 2021年5期
关键词:卷积论文图像

高新波,王楠楠,梁荣华,郑伟诗,徐 迈,卢策吾,宋一哲,韩军功

(1.重庆邮电大学 计算机科学与技术学院,重庆 400065;2.西安电子科技大学 综合业务网理论及关键技术国家重点实验室,陕西 西安 710071;3.浙江工业大学 计算机科学与技术学院,浙江 杭州 310014;4.中山大学 数据科学与计算机学院,广东 广州 510275;5.北京航空航天大学 电子信息工程学院,北京 100191;6.上海交通大学 计算机科学与工程系,上海 200030;7.萨里大学 SketchX Lab,英格兰萨里郡吉尔福德,GU2 7XH;8.亚伯大学 计算机科学,英国威尔士,SY23 3FL)

基于人工智能推动平安城市建设已经成为公共安全的着力点和落脚点。2017年国务院印发了《新一代人工智能发展规划》,对人工智能在公共安全领域的深度应用高度重视。2019年国务院发布《国务院办公厅关于印发国务院2019年立法工作计划的通知》,其中包含由公安部起草的《公共安全视频图像信息系统管理条例》。因此,基于智能信息处理算法的智慧监控已经成为当前及未来国际高新技术竞争的焦点。

随着视频监控部署规模越来越大,监控设备的多样性和场景的复杂性给监控视频的分析与理解带来很大的挑战,主要表现为视觉场景“看不清”、视觉要素“找不到”、视觉内容“看不懂”。因此,探索研究针对监控视频与图像的智能信息处理算法,为维护社会稳定与公共安全提供面向智慧监控的视觉感知与理解技术,具有十分重要的意义。

在这样的背景下,《西安电子科技大学学报》组织了“面向智慧监控的视觉感知与理解技术与进展”专题。经过严格评审,最终录用了24篇学术论文,包括了视觉清晰化、视觉合成与增强、场景分割与分析、身份检测与识别、目标检测与追踪、行人重识别等方面。这里分别介绍如下。

在视频/图像超分辨重建方面,论文《一种多尺度三维卷积的视频超分辨率方法》提出了基于多尺度三维卷积的视频超分辨率模型。该模型输入连续的多帧视频图像,输出中间帧的超分辨率重建结果,包括多尺度特征提取、特征融合以及高分辨率重建三个模块。Vid4数据集上3倍和4倍超分辨率放大的实验结果表明,与其他已有方法相比,该方法可有效提升峰值信噪比和结构相似性性能,取得较好的视觉效果。论文《一种自适应权重学习的轻量超分辨率重建网络》提出了一种基于自适应权重学习的轻量化超分辨率重建网络。该网络首先利用注意力分支和无注意力分支分别获取相应信息,再通过自适应权重融合分支进行整合,使网络在参数量与性能之间达到相对平衡。在标准数据集上的实验证明本文所提出方法的重建性能优于同类先进方法。

在视觉合成与增强方面,论文《一种生成对抗网络的遥感图像去云方法》提出了一种端到端生成对抗网络模型对遥感图像去云,可以从含有云层的遥感图像中恢复出清晰的原始图像。实验结果表明,该方法在定量指标(峰值信噪比和结构相似性)和运行时间上均优于现有的去云方法,并且在参数量一致的条件下,计算量GFLOPs最低,具有更低的算法复杂度。此外,该方法得到的遥感图像细节信息更丰富,颜色几乎没有失真,具有更好的主观视觉效果。论文《维度情感模型下的表情图像生成及应用》针对训练数据包含表情类别有限且训练数据规模不均衡的问题,提出了Arousal-Valence维度情感空间中基于生成对抗网络的表情图像生成方法AV-GAN,用于生成更多样且均衡的表情识别训练数据。该方法使用标记分布表示表情图像,通过引入身份控制和表情控制模块,以及对抗学习方法实现在Arousal-Valence空间中随机采样和生成表情图像。在Oulu-CASIA数据库上的评估实验显示,使用本文方法对训练数据进行数据增强,可比使用原训练数据的表情识别准确率提升6.5%,证明了该方法能有效地提升非均衡训练数据的表情识别准确率。

在场景分割与分析方面,论文《改进DeeplabV3+的火焰分割与火情分析方法》提出一种改进DeeplabV3+的火焰分割与火情分析方法。首先在DeeplabV3+的解码器部分增加低层特征来源,将其与高层特征融合后采用2倍上采样逐步恢复图像尺寸,保留更多的细节信息,实现更加准确的火焰分割;然后将火焰视频每帧分割得到的像素数组成火势发展序列,基于关键点对序列进行分段和线性拟合,获取火势发展的关键趋势。实验结果表明,所提方法可以在对火焰进行准确分割的基础上,有效地分析火情发展态势,为火情的检测与控制提供有效的帮助。论文《采用神经网络架构搜索的遥感影像分割方法》针对分割高分辨率遥感影像需人工设计网络架构,过度依赖专家经验,耗时费力,且网络泛化能力较差等问题,提出一种资源平衡型部分通道采样的神经网络架构搜索方法。首先,在网络架构参数中添加资源平衡项,提升搜索算法稳定性,同时减小剪枝过程中产生的更新不平衡和离散化误差;其次,选择部分通道进行搜索空间的混合操作,以节省计算资源,提升搜索效率,缓解网络过拟合;最后,根据高分辨率遥感影像地物复杂、分布离散及空间范围广等特点,引入Gumbel-Softmax Trick方法从非连续概率分布进行采样,以提高采样效率。实验结果表明,新方法能高效地自动搜索出分割高分辨率遥感影像的网络架构,具有分割精度高、计算资源占用率低的特点。

在身份检测与识别方面,论文《采用元学习的多场景教室学生姿态检测方法》针对不同教学场景图像的数据分布差异较大造成的跨域偏移问题,提出了一种采用元学习的多场景学生姿态检测方法。该方法设计了姿态检测元模型和一种参数可学习的域适应优化器,通过离线学习和在线学习相结合的方式,实现特定教学场景姿态检测模型的快速域适应。实验结果表明,该方法在多场景姿态检测数据集上的综合检测精度要优于目前主流的目标检测模型,对有标签图像较少的新场景也有较好的域适应效果。论文《一种复杂监控场景下的人体检测算法》针对现有人体检测算法存在着准确率不高、模型泛化能力不强等显著问题,基于特征图像金字塔和多尺度感受野理论,设计了一种检测网络的特征融合方式和特征图的生成策略,依靠轻量级的特征图像金字塔技术,并结合数据增强、锚点框匹配策略和遮挡损失函数等优化方法,进而提出了一种基于深度神经网络的人体检测算法EFIPNet。算法的有效性验证表明,新设计的高效人体检测算法可以有效地提高人体目标的检测精度,实现复杂监控场景下的人体精确和实时检测。论文《一种LSTM与CNN相结合的步态识别方法》针对视频行人运动过程中拍摄视角、外观变化等因素对步态识别的影响,着眼于步态信息的三维性,提出一种长短时记忆网络与卷积神经网络相结合的步态识别方法。采用三维人体姿态估计提取视频行人的关节姿态信息,构建关节运动约束矩阵和关节动作特征矩阵表征关节运动约束及人体结构约束的时序特性和关节位移的空间特性;设计了长短时记忆网络和卷积神经网络双路并行的深度网络学习运动约束矩阵和动作特征矩阵中的步态时空特征。在公开的多视角步态数据库CASIA-B中对网络模型进行了训练检验,结果表明新方法不但省略了行人检测、追踪等预处理步骤,在视角跨度±36°范围内获得了80%以上的识别率。论文《一种利用背景光流特征的虚假人脸检测方法》提出一种利用背景光流特征的真虚假人脸检测方法。该方法聚焦真实人脸背景与虚假人脸背景之间的运动差异性,设计人脸外多个背景对比区域的分割方法、归一化方法,分析人脸外对比区域的光流及其角度分布,构造光流角度的分布相似性测算函数,测算判别多个背景对比区的运动状况,通过评估对比区的运动一致性实施检测虚假人脸检测。新方法在公开数据集ReplayAttack和CASIA-FASD中的测试准确率分别为97.87%和90.95%,可有效甄别含背景区手持照片视频的虚假人脸攻击。论文《采用空洞卷积的多尺度融合草图识别模型》针对现有的基于深度学习的草图识别方法大多将普通卷积作为草图特征提取的主要手段,而忽略了草图对象的稀疏性特点,提出了一种通过空洞卷积实现草图特征提取的草图识别模型。该模型将空洞卷积和普通卷积融合,利用空洞卷积不增加卷积核有效单元数量即可扩大感受野的特性,实现对草图结构特征的初步提取。实验结果表明,该模型在TU-Berlin SKetch数据集取得了72.6%的识别准确率,相较于目前主流的草图识别方法,效果更加明显。论文《一种基于局部表征的面部表情识别算法》提出一种基于局部表征的表情识别算法。为提取面部的局部特征,该文首先根据获取的人脸68个特征点将整体面部图像划分成43个子区域,随后选择肌肉运动区域与面部显著器官所覆盖的8个局部候选区域作为卷积神经网络的输入。为均衡局部候选区域的特征,EAU-CNN采用8个并行的特征提取分支,每个分支支配不同维全连接层。分支的输出按照注意力自适应地连接,以突出不同局部候选区域的重要程度。最后经Softmax函数,将表情分为中性、愤怒、厌恶、惊讶、高兴、悲伤和恐惧七类。该文在CK+、JAFFE、自定义大型FED数据集上对算法进行了评估实验,所提算法平均准确率分别为99.85%、96.61%、98.29%,该评价指标超过S-Patches算法6.01%、10.17%、6.09%,结果表明局部表征能够提升表情识别性能。

在目标检测与跟踪方面,论文《注意力机制的多尺度单目标跟踪算法》提出了基于注意力机制的多尺度单目标跟踪算法。这种算法使用Inception网络非对称卷积思想,在增加多尺度卷积核的同时减少参数量;非对称卷积可以有效地结合局部特征和全局特征,提高跟踪的鲁棒性。在实验部分,该算法在OTB-100数据集与其他先进的跟踪算法进行对比,在准确率和成功率方面相较ATOM算法分别有0.9%和0.8%的提升,提升了精度,同时在目标丢失后更容易找回目标。论文《一种小型四轴飞行器目标跟踪控制算法》,为了提高利用四轴飞行器单目摄像头传回的图片帧执行目标跟踪任务时的实时性和稳定性,提出一种基于注意力模型的图片帧预处理和基于反馈控制的四轴飞行器姿态调整的算法。实验结果表明,所提出的目标跟踪算法在图像处理实时性和飞行器飞行稳定性两方面都有提升。所提出的算法可为四轴飞行器图像处理应用提供有力的技术支持。论文《一种深度融合机制的遥感图像目标检测技术》提出一种深度融合机制的遥感图像目标检测技术。该技术基于深度卷积神经网络,将多尺度、注意力机制与宽度学习三者融合,用于遥感图像目标检测技术。实验结果证明,与当前先进的方法相比,该算法能够有效解决遥感图像目标检测中速度慢、精度低、易丢失小目标等问题,提升目标检测的准确率。论文《一种利用贝叶斯优化的弹道目标微动分类网络》针对在人工选择适合弹道目标微动分类的神经网络超参数和结构需要人力经验和大量的计算时间,而且得到的参数不能保证为最优的问题,提出用贝叶斯优化算法来自动获取卷积神经网络超参数和最优结构的方法,以提高神经网络对微动特征的分类性能。实验结果表明,贝叶斯优化算法能够较快地完成对卷积神经网络的参数优化,并且得到的卷积神经网络模型具有良好的识别效果和鲁棒性。论文《响应差异约束的相关滤波无人机目标跟踪算法》针对无人机视频中跟踪目标易受到形变、背景杂乱等问题的困扰,提出一种新颖的基于响应差异约束的相关滤波无人机目标跟踪算法。该方法根据滤波器在前后帧间变化的一致性,建模不同滤波器基于同一训练样本的响应差异,建立目标函数的约束机制,准确学习目标的外观变化,提升滤波器的鲁棒性;同时引入辅助变量构建优化函数,采用交替求解算法将计算目标问题转化为求滤波器和辅助变量的最优解。实验结果表明,所提算法在跟踪准确度和成功率两个指标上均好于其他算法,且在无人机视角复杂环境下,对光照变化、形变、遮挡和运动模糊等挑战性属性均具有良好的鲁棒性,同时平均速度达到21.7帧/秒,能够满足无人机目标跟踪的实时性需求。论文《改进YOLOv3的快速遥感机场区域目标检测》,为了取得快速且精确的检测效果,自主构建了更加符合具体任务的数据集;以一步回归全局检测方法的代表网络YOLOv3为基础框架,针对数据集中类别分布不均衡问题,提出使用生成的方法用生成对抗网络进行有针对性的数据扩充,以获得具有领域变换特性、类数据分布更为均衡的数据集。实验表明,相比原网络,改进网络带来了 4.98% 的多类目标平均检测精确率以及8.33%的平均交并比的提升,分别达到了 89.07% 的多类目标平均检测精度以及61.97%的平均交并比。此外,改进网络的平均检测时间为0.062 5 s,相比类似检测率的RetinaNet-101网络速度约快5.3倍,体现了该网络的有效性以及对具体任务的实用性。论文《空间可靠性和相关滤波器联合学习的跟踪算法》针对基于背景感知的相关滤波跟踪算法中裁剪矩阵的使用缺乏对空间不同位置可靠性的学习,可能会导致背景信息对滤波器的学习占据主导地位的问题,将空间可靠性的学习引入相关滤波算法中,通过交替方向法与滤波器进行联合迭代求解,加强了滤波器对空间可靠性区域的学习,增强了滤波器的对目标与背景的判别力。此外,为优化模型更新策略,提出了一种基于感知哈希算法的自适应模型更新方法,提升了滤波器学习的有效性。所提出的算法在标准视觉跟踪数据集上进行了全面评估,验证了该算法在性能上的有效性以及实时性。论文《面向高速公路的车辆视频监控分析系统》提出一套面向高速公路的车辆视频监控分析系统。通过对监控视频流中的车辆进行检测和跟踪,进一步实现高速公路相关车辆监测应用。该系统提出了基于双向金字塔多尺度融合的轻量级车辆检测跟踪算法。该算法基于YOLOv3在主干网络上使用轻量级网络EfficientNet,并且利用双向特征金字塔网络(BiFPN)进行多尺度特征融合,使得算法在保证检测实时性的同时提升检测准确度。实验结果表明,本文提出的算法检测精度达97.11%,高于原始YOLOv3检测算法13.74%,并且结合DeepSORT模型在车辆跟踪上以31帧每秒的帧速度实时运行。同时,该车辆监测系统可在车流量统计、交通异常事件检测领域进行多路实时监测,具有实际应用价值。

在行人重实别方面,论文《利用混合双通路神经网络的跨模态行人重识别》提出了一种基于混合双通路神经网络的跨模态行人重识别方法。该方法深入分析了混合双通路神经网络中模态共享参数层和模态特有非共享参数层对跨模态行人重识别模型的影响,同时充分利用了不同模态数据类内特征分布的一致性约束和类间相关性系数在不同模态间的一致性约束来提升模型精度;针对所设计的整体神经网络架构,该方法有效采用了混合自适应学习率调整的模型训练策略来提升模型的特征学习能力;最后,通过大量实验分析验证了所提方法的有效性,并且该方法在当前可见光—红外图像行人重识别两个标准数据集(SYSU-MM01和RegDB)上都取得了非常先进的识别精度。论文《联合DD-GAN和全局特征的井下人员重识别方法》为解决矿井下光线暗淡、光照不均匀,现有常规行人重识别方法不能满足井下人员重识别的问题,提出一种联合双鉴别式生成对抗网络和全局特征的井下人员重识别方法。实验证明,本文方法可实现煤矿巷道低照度场景下精准的人员重识别任务。

除上述技术讨论外,还有几篇论文讨论了视频、图像表征与检索技术等相关内容。

论文《深度非对称压缩型哈希算法》针对图像检索中很多深度监督哈希算法不能有效地利用大型数据集监督信息和困难样本的问题,提出了一种端到端的非对称压缩型哈希算法。该算法将网络的输出空间分为查询集与数据库集,构造数据监督矩阵,并采用非对称的方式使全局监督信息得到有效的利用。同时,在损失函数中对同类哈希码聚拢程度与不同类哈希码的分离程度进行显式的约束,提高训练过程中模型对困难样本的判别能力。实验结果表明,提出算法可以学习到更加判别紧凑的哈希码,在检索精度上要优于目前主流的算法。

论文《基于自监督学习的视频表征方法综述》根据辅助任务采用的信息不同,从时序、时空和多模态信息三个方面,对近三年基于自监督学习的视频表征方法进行分析和总结。然后,从动作识别和视频检索下游任务对比实验结果,分析基于自监督学习的视频表征模型的优劣。最后,总结了存在的问题并对其发展进行展望。

我们相信读者可以从以上的学术论文中发现很多有益的思路和解决问题的方法,并借此机会非常感谢所有作者的贡献以及所有评审者的辛勤付出。是大家的无私奉献和辛勤努力,使得编委团队成功编辑了这一期专题。

编委简介

高新波,重庆邮电大学教授,博士生导师,国家“万人计划”科技创新领军人才、新世纪百千万人才工程国家级人选、国家杰出青年科学基金获得者,享受国务院政府特殊津贴专家。主要从事人工智能、机器学习、图像处理、计算机视觉和模式识别等领域的研究工作,提出了基于三元空间融合的异质图像合成与识别算法,以及与人眼视觉感知相吻合的图像质量客观评价模型,即将物理空间、信息空间和物理空间相结合构建以人为中心的视觉计算模型。在该领域发表高质量的学术论文600余篇,其中在重要国际学术期刊和会议上发表论文200余篇,Google Scholar统计引用17 000余次,2014~2018年连续 五年入选爱思唯尔发布的计算机科学领域中国高被引学者(Most Cited Chinese Researchers)榜单。申请国家发明专利100余项,授权50余项,获得软件著作权12项。主持包括国家杰出青年科学基金项目、国家自然科学基金重点项目、面上项目、教育部重点项目、陕西省重点科技攻关项目在内的纵向研究课题20余项,此外还 与MSRA、Intel中国研究中心(ICRC)、Samsung电子等机构开展国际合作研究。获国家自然科学二等奖(2016)、陕西省科学技术奖一等奖3项(2009,2011,2015)、教育部自然科学二等奖1项(2013)、陕西省高校科技进步一等奖3项(2008,2009,2013)。

E-mail:gaoxb@cqupt.edu.cn

王楠楠,西安电子科技大学教授,博士生导师,国家优秀青年基金获得者,综合业务网理论及关键技术国家重点实验室智能信息处理中心主任。主要研究方向为计算机视觉、模式识别和图像处理。在IEEE TPAMI、IJCV、IEEE TNNLS、IEEE TCyber等著名期刊和ICML、NeurIPS、CVPR、ICCV、ECCV等主流国际/国内会议上发表论文100余篇,授权国家发明专利30余项,软件著作权3项,在申请专利15项,入选中国科协青年人才托举工程,获教育部自然科学一等奖、陕西省科学技术奖一等奖、中国图象图形学学会自然科学二等奖、陕西青年科技奖、中国人工智能学会优秀博士学位论文、陕西省优秀博士学位论文等奖项。目前担任中国电子学会青年科学家俱乐部会员,VALSE执行领域主席委员会副主席、常务领域主席(http://valser.org/),中国图象图形学学会学术工委委员、青年工作委员会执行委员,中国计算机学会人工智能专委会委员、多媒体专委会委员,中国人工智能学会模式识别专委会委员,中国图象图形学学会多媒体专委会委员、遥感图像专委会委员,陕西省电子学会图象图形工程专委会委员。

E-mail:nnwang@xidian.edu.cn

梁荣华,浙江工业大学教授,计算机科学与技术学院、软件学院院长,博士生导师。主要研究多源异构数据的可视表达与理解,研究从数据采集的科学仪器,到数据的处理,进而到可视分析理解,突破普通用户理解和识别生物特征数据的瓶颈。主持了国家重点研发计划项目(首席科学家)、国家自然科学基金重大科研仪器项目、国家自然科学基金重点项目等,发表论文80余篇,包括IEEE TPAMI、TKDE、TVCG、TIFS、TMM、TCYB、TIM、AAAI、IJCAI等领域顶级期刊和会议,以第一完成人获得浙江省科技进步一等奖、中国专利优秀奖、教育部科技进步二等奖和浙江省科学技术二等奖等。获得国家“万人计划”科技创新领军人才、科技部中青年科技创新领军人才、教育部“新世纪优秀人才”支持计划、浙江省有突出贡献的中青年专家、浙江省杰出青年科学基金等。

E-mail:rhliang@zjut.edu.cn

郑伟诗,中山大学教授,机器智能与先进计算教育部重点实验室副主任,数据科学与计算机学院智能科学与技术研究所副所长,中山大学百人计划(2011年)广东省引进创新科研团队计算科学科研团队核心成员。研究方向是机器视觉与智能学习,主要面向以人为中心的图像识别领域(包括人脸识别、行人再标识和行为识别),着重发展相关的机器学习方法和理论;并最近侧重研究高性能大规模机器学习算法,以解决应用领域中的大规模图像识别问题。发表论文90余篇,其中已在国际顶级和权威杂志,包括IEEE TPAMI、IEEE TNN、IEEE TIP、IEEE TSMC-B、Pattern Recognition和计算机视觉国际顶级学术会议和人工智能国际计算机顶级学术会议ICCV、CVPR、IJCAI、AAAI发表论文近50余篇,在其他杂志和会议上发表论文十多篇。现/将主持国家基金、广州市珠江新星支持计划、广东省自然科学杰出青年基金等10项科研基金。

E-mail:wszheng@ieee.org

徐迈,北京航空航天大学教授,博士生导师,国家自然科学基金优秀青年基金获得者、教育部青年长江学者,中国图像图形学学会青工委副主任。2016年获教育部霍英东青年基金资助,2017年获人工智能学会技术发明一等奖(第二完成人),2018年获中国电子学会优秀科技工作者,2019年获国家优秀青年基金,2020年获北京市杰出青年基金、教育部技术发明一等奖(第一完成人),2021年获中国计算机学会杰出演讲者荣誉。研究兴趣为图像处理、计算机视觉与人工智能以及在视频压缩与通信、生物医学工程领域的应用。学术方面:近五年,在IJCV、IEEE TPAMI、JSAC、TIP、TMI、JSTSP、TCSVT等国际顶级期刊及CVPR、ICCV、ECCV、AAAI、DCC、ACM MM等顶级会议上发表论文100余篇(均为SCI/EI检索),其中SCI检索60余篇(JCR1区50余篇,IEEE期刊论文40余篇),谷歌引用3千余次,SCI他引千余次,多篇论文入选ESI高被引论文/热点论文。获IEEE视频处理领域顶级期刊IEEE TCSVT最佳论文奖提名1次,获IEEE国际会议最佳论文奖3次,会议最佳论文提名1项。作为负责人承担项目10余项,包括国家自然科学基金首批原创探索项目、优青项目、2项面上项目、青年项目、军委科技委创新特区项目、863项目(3项)。担任图像处理领域顶级期刊IEEE TIP编委(Associate Editor)、IEEE TMM编委(Associate Editor)、信号处理领域权威期刊IEEE J-STSP的首席客座编委(Lead Guest Editor)。2013年起承担本科生“数字图像处理”及研究生“机器学习”、“科技论文写作”教学工作,2014年获北京航空航天大学“我爱我师”十佳教师奖。指导的本科生获北航“金质奖章”/“沈元奖章”2人(北航本科生最高荣誉),北航优秀本科毕业设计3人次。指导的研究生获中国电子学会优秀硕士论文奖3项(含提名奖1项),北航“研究生十佳”5人(北航研究生最高荣誉)、提名1人,北航优秀硕士毕业论文3人,国家奖学金9人。

E-mail:MaiXu@buaa.edu.cn

卢策吾,上海交通大学教授,2019年度求是杰出青年学者奖获得者。主要从事计算机视觉与智能机器人的研究,在图像主结构表征、视觉关系学习以及人体行为姿态理解等关键问题上取得多项突破,有诸多创新贡献。多项成果在智能安防,机器人,无人车等重要领域得到应用。在CVPR/ICCV/PAMI等顶会顶刊发表论文60多篇,根据google scholar申请人论文被引用近3000次;获得Symposium on Non-Photorealistic Animation and Rendering NPAR 2012最佳论文奖(为十年来第一个华人机构获奖)。担任国际AI学术会议CVM 2018大会程序主席,国际计算机视觉顶级会议CVPR2020 Area Chair(区域主席)。卢策吾为“AI青年科学家联盟”创始成员之一,并担任执行理事。

E-mail:lu-cw@cs.sjtu.edu.cn

宋一哲,英国萨里大学教授,CVSSP SketchX 实验室主任。在顶级会议(CVPR、ICCV、ECCV、SIGGRAPHE Asia、ICML、BMVC)和期刊(IJCV、TIP、TVCG、TCSVT)上发表论文多篇(截至2021年7月,21篇CVPR、11篇ICCV、4篇ECCV、2篇SIGGRAPH Asia、1篇ICML),包括2015年英国机器视觉会议的最佳论文奖。2021年英国机器视觉会议(BMVC)的项目主席,定期担任旗舰计算机视觉和机器学习会议的区域主席(AC),最近担任CVPR′22和ICCV′21的区域主席,目前是《计算机科学前沿——计算机视觉》的副主编(AE),曾担任过神经计算领域的AE(IF:5.190)。IEEE高级成员、高等教育学院(HEA)院士以及EPSRC审查学院的正式成员。

E-mail:y.song@surrey.ac.uk

韩军功,英国阿伯里斯特威斯大学计算机科学系的全职教授和主席。研究兴趣包括计算机视觉、人工智能和机器学习,在多媒体内容识别,计算机视觉,机器学习等方向发表SCI杂志论文100余篇,总影响因子超过350。其研究成果40余次发表在本领域顶级期刊(e.g.,IJCV)及主流 IEEE 汇刊(e.g.,IEEE T-IP 16)。此外,在计算机 CCF-A类会议发表论文40余篇(e.g.,NeurIPS,ICML,CVPR,ICCV,ACM MM,AAAI,etc.)。文章Google总引用率超过4 500次,一作单篇最高引1 470次(IEEE TCYB 2013-2019引用率,下载率双第一),10篇论文被 Web of Science 收录为高被引论文,1篇论文被选为热点论文。担任Elsevier Neurocomputing(IF 4.1)杂志,Springer Multimedia Tools and Applications(IF 2.1)杂志和IET Computer Vision(IF 1.6)杂志副主编以及4个本领域著名杂志(IEEE Transactions on Neural Network and Learning System,IEEE Transactions on Cybernetics等)的特约客座编委;同时还是IEEE Industry DSP Technology的常务委员会委员,IEEE Multimedia Communications 的技术委员会委员。

E-mail:jungonghan77@gmail.com

猜你喜欢

卷积论文图像
基于生成对抗网络的CT图像生成
一种基于卷积神经网络的地磁基准图构建方法
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
浅析p-V图像中的两个疑难问题
巧用图像中的点、线、面解题
从滤波器理解卷积
本期论文英文摘要
本期论文英文摘要
本期论文英文摘要