APP下载

领域自适应目标识别综述

2017-09-07唐宋叶茂李旭冬

中兴通讯技术 2017年4期
关键词:目标检测

唐宋+叶茂+李旭冬

摘要:针对目前域自适应目标识别问题的学习方法,进行系统总结。首先,提出目标识别的两个基本主题:基于域自适应的目标分类和目标检测;然后,围绕这两个主题,从特征和样本两个角度,展开具体综述。认为对于域自适应目标分类,几种算法的主要问题为:忽略了样本所构成的流形几何结构,如果能利用几何结构来约束特征表达,将有利于样本特征鲁棒性的提高。对于域自适应目标检测,其问题为:现有方法对源样本和带标签的目标域样本存在依赖,这一问题使得现有的方法很难适用于某些真实的应用场景。

关键词: 域自适应学习;目标分类;目标检测

在计算机视觉领域,作为许多计算机视觉应用的基础,目标识别问题一直是相关研究的重点。2006年,G.E.Hiton提出深度学习以后,针对经典的目标识别问题(训练集和测试集概率分布相同),取得了重大进展。基于域间分布差异的域自适应目标识别问题,已逐渐成为计算机视觉领域的研究热点。对于该问题的研究具有重要的意义,主要体现在两个方面:提高了分类器或检测器的复用性,有效地增强了模型对新环境的适应性;使得模型的训练过程能很大程度地独立于应用场景。因为在训练模型时,不再特别地考虑应用场景的具体特点,所以在训练阶段可以借助诸如大数据等的优势,预训练出具有较好泛化能力的模型。

1 域自适应学习和目标识别问题

域自适应学习是迁移学习[1]的一个子类。对于域自适应学习,源域和目标域的任务相同,但是,数据不同但相关。这类学习的核心任务是解决两个域数据分布的差异问题,是迁移学习最基本的形式。

目标识别问题包含狭义和广义两个层面:狭义是指目标分类,其主要任务是将不同类别的物体彼此区分开;广义是指目标检测,要明确图片中存不存在目标物体?这些目标物体的具体位置在哪里?目前,常用的目标检测思路大概大概有3种,它们分别为:

(1)滑动窗口机制+分类器的检测框架[2-3],检测过程如图1所示。因为具有极强的通用性,早期的检测方法多采用该框架,目前该框架仍然发挥着重要的作用。但是,由滑动窗口机制产生的候选检测窗有时很难准确地框定目标,容易造成漏报情况的發生。

(2)卷积神经网络(CNN)的回归检测框架[4-7],如图2所示。该框架将测试图片作为整体进行认知,不仅有效解决了第1种框架目标丢失的问题,而且能方便地引入了上下文信息,取得了较好的检测结果。但是,因该框架只适用于CNN,所以其通用性稍差,并且相对于其他方法,样本标记相对麻烦。

(3)基于区域分割的检测框架。该框架由文献[8-10]于2014年提出,大致检测流程如图3所示。首先,对输入图片采用选择性搜索方法提取出区域候选框;然后,所有候选框缩放成固定大小;接着,利用CNN提取特征;最后,用支持向量机(SVM)进行区域分类,并采用回归的方法微调侯选框位置与大小。该框架主要的贡献是去掉了窗口扫描,用聚类方式,对图像进行分割分组,得到多个侯选框的层次组。

通过以上介绍,可得出两点结论:目标分类是目标检测的基础和前提;目标检测是目标分类的扩展,在目标分类的基础上引入不同的目标定位方法就形成了不同的检测思路。因此,针对目标识别的相关研究需要兼顾目标分类和目标检测这两个层次。

基于上述分析,我们将域自适应目标识别问题细化为两个基本研究主题:基于域自适应的目标分类和目标检测。为了聚焦讨论重点,在文章中,我们仅考虑只有一个源域的情形,而对多源域的情形则不做详细的讨论。

2 域自适应目标分类方法

现有域自适应目标分类方法可以分为:半监督域自适应方法和无监督域自适应方法。

2.1 半监督领域自适应方法

在这种场景中,源域中的样本都含有标签信息,目标域中的样本只有一部分含有标签。这类方法的核心思想是利用源域和目标域的标签信息,构建源域和目标域之间的关系。这些方法可分为基于特征和基于样本两类。基于特征的半监督方法,比较代表性的论文有文献[11]和[12]:文献[11]提出了一种度量学习算法,该算法利用源域和目标域中所有带标签的样本,学习一个线性变换,在该变换的作用下,所有样本被映射到一个具有域不变特性的特征空间中;文献[12]给出了一个字典学习算法,基于两个域中带标签的样本,由该字典编码的样本特征同时具有域不变性和稀疏性。

基于样本的半监督方法,比较代表性的论文有文献[13-17]:文献[13]中提出利用标记的目标样本,来确定被弱标记的源域样本的正确标签,然后基于这些有标签的源域和目标域样本,训练分类器;文献[14]提出在传统的Least-Squares SVM中引入了两个新的正则化项,一个利用了连续性假设,另一个由带标记的目标样本构成,以此来描述目标分类器的经验误差;文献[15-17]提出了基于Adaboost 的学习算法,在算法实现中,为了判别源样本是否对目标域学习有用,必须借助少量带标签的目标域样本,来训练适用于目标域的分类器,并将其作为判别器;文献[18]总结了之前基于SVM实现知识迁移的方法,利用源领域获得支持向量迁移知识,并在此基础上,设计了称为Cross domain SVM的支持向量机模型,该方法需要目标领域的部分样本带有类别标签。

2.2 无监督领域自适应方法

在这类方法中,只有源域中的样本含有标签信息,而目标域中的样本没有标签。与上述半监督方法相比,无监督方法难度更大。与半监督方法相同,这些方法也可以归纳为基于特征和基于样本两类,为了叙述方便,将它们分别记为A类和B类。具体地,A类算法假设源域和目标域的样本能被映射到共享的隐藏特征空间,在这个空间中,源域样本和目标域样本的特征概率分布差异很小。由这一思想衍生出两种不同解决方案,分别记为A1和A2。

A1方案从直接刻画该隐藏特征空间的角度切入问题(原理如图4所示),假设源域和目标域对应的特征空间为同构空间,而且在特征层面两者存在一些共享的特征元素;该隐藏特征空间可以通过这些共享特征元素加以描述。对于这一思路,其核心是如何找到刻画该隐藏特征空间的共享特征元素。比较代表性的论文有文献[19-23]:文献[19]提出了基于中枢特征的方法,通过提取最重要的中枢特征,形成辅助特征向量,最后分类器在原特征向量加上该辅助特征向量的空间内重新学习,该方法的问题在于当目标领域未知时,无法选择合适的中枢特征;基于类似思想,文献[20-22]分别基于互聚类方法、降维方法以及多核学习的方法实现了分类器的迁移;文献[23]利用跨域界标样本选择过程,构建域不变特征子空间。

A2方案则聚焦到源域和目标域对应的特征空间为异构空间时的情形,其基本思想是通过学习一个变换关系将源领域与目标领域特征空间映射到该隐藏特征空间(原理如图5所示)。比较代表性的论文有文献[24-29]:文献[24]中提出利用多个视角的数据构建翻译器,通过这个翻译器,实现源领域与目标领域特征空间的映射;文献[25]中提出通过非线性度量学习方法得到一个非对称的特征空间映射;文献[26]中提出将源领域与目标领域样本映射到同一子空间,通过SVM学习,训练得到新的目标分类器和特征空间的映射;文献[27]中提出基于最大平均差异(MMD)概念,通过对源域和目标域上的边缘分布和条件分布进行约束,来实现对变换矩阵的求解;文献[28-29]中提出了基于深度模型的方法,其思想是借助深度模型强有力的特征抽象能力,通过多层网络结构,在不断降维抽象的同时,不断地弥合源域和目标域概率分布的差异,在最高特征抽象层使两个域之间的概率分布差异最小。

文献[30-31]中提出了一类基于MMD的深度网络方法。具体地,文献[30]中设计的深度自适应网络(DAN)由两部分构成:首先,利用深度卷积网络提取共享特征;然后,构建两个全链接子网络,来分别提取源域和目标域的域特征,同时,在这两个子网络中,逐层引入针对多核可变的最大平均差异(MK-MMD)最小化约束,从而实现向隐藏特征空间的映射。基于类似的思想,文献[31]中将MMD、残差网络结合,使用熵最小化方法,提出了自适应残差迁移网络。

最近,文献[32]提出了一种更为自然的迁移方案:结合生成对抗网络框架[33]与深度学习来解决领域自适应(DA)问题,所提深度网络能够学到具有领域不变性的特征。文献[34-35]则从传统的核映射角度提出了基于特征的迁移方法,其基本思想是用高维特征空间来表示该隐藏特征空间,而源样本和目标域样本在该高维空间的投影可以用核映射方法得到,基于这些投影点可以建立相应的学习模型。

B类方法将样本本身的特点作为解决问题的切入点,大致可以分为兩类,分别记为B1和B2。具体地,B1类方法的基本思想如图6所示(假设源域中的一部分样本满足目标域概率分布),这类方法通常采用加权的方式,来筛选出满足条件的源样本,以此训练出适用于目标域的分类器,因此其核心问题是如何求取这些加权系数。比较代表性的论文有文献[36-38]:文献[36]中提出了一个基于样本加权的方法,使源域样本的概率分布最大可能地匹配目标域的概率分布,然后利用加权后的源域样本和目标域样本完成迁移;文献[37]则提出直接利用平均相似度的方法,直接将符合目标域概率分布的源域样本筛选出来;文献[38-39]估计源领域与目标领域样本密度函数,然后通过计算两者之比,来获得权重。为避免估计密度函数,文献[40]提出采用K-L散度估计该比值。

B2类方法的基本思想是:如果能有效刻画源域到目标域的迁移过程,那么源样本空间则能以渐进的方式,投影到目标域空间,其原理如图7所示。比较代表性的论文有文献[41-46]:文献[41]中提出利用流形对齐过程,学习从源样本空间到目标样本空间的变换,实现源空间到目标空间的投影;文献[42]中提出假设源域样本和目标域样本所构成的空间是位于Grassman流形上的两个不同的点,在这个Grassman流形上,连接这两个点的测地线描述了源域到目标域的迁移过程,通过子空间插值可拟合出这条测地线,将样本投影到这些子空间上,由所有这些投影所构成的向量被作为样本的特征,该文献为域自适应的问题提供了一个新的观察角度;通过对测地线上子空间的积分,文献[43]中提出了被称为GFK的核方法;文献[44]中提出可以按比例构成测地线上子空间的样本集,并利用这些样本集训练得到基于深度模型分类器,相比之前的线性投影,样本投影到每个子空间上的特征,具有更强的表达能力;文献[45]中则提出通过增量学习的方式,为测地线上每个子空间建立相应的字典,然后利用这些字典完成对样本的编码;文献[46]则提出在Spline流形上对测地线进行子空间的采样。

3 域自适应目标检测方法

目前,域自适应学习在计算机视觉中的应用中已有一些研究成果[47],但是关于域自适应的目标检测方法研究并不是很多。现有的工作大致可以分为两类:半监督域自适应目标检测方法和无监督域自适应目标检测方法。为方便叙述,它们被分别记为C和D。

3.1 半监督域自适应目标检测方法

在域自适应目标检测问题中,半监督是指:模型训练过程能够从目标应用场景中获得一些带标签信息的样本。这些方法几乎都是基于特征的方法,其基本思想是通过带标签的目标域样本,抽取跨域的特征(基本框架如图8a)所示)。根据源领域是否额外引入大规模数据集,这类方法可被划分为C1和C2两个子类。

C1类方法是相对传统的方案,在相应的问题假设中,它们使用的源域数据集通常规模较小。比较有代表性的论文有文献[48-50]:文献[48]中提出首先利用卷积自编码器在源域上预训练卷积核,然后基于带标签的目标域样本,对上述卷积核进行调谐(FT),使之适用于目标域;文献[49]提出面向一种车辆检测的CNN方法,该方法保留源域和目标域共享的卷积核的同时,借助带标签的目标域样本对非共享卷积核进行更新;文献[50]中提出通过对源领域特征迁移构造弱分类器,并将每个弱分类器已学习好的权重根据目标场景再学习调整,通过这种方式,能解决由于视角以及光照等造成的改变。

C2方法是最近才逐渐发展起来。这类方法利用在大数据上训练好的深度模型,来提取源样本的深度特征,然后基于所得深度特征集合进行算法设计。相比于传统的C1类方法,这类方法检测效果更好,主要有两方面原因:一方面,有效融合了深度特征良好的区分能力和迁移能力;另一方面,可以方便地和其他算法框架相结合。比较有代表性的论文有文献[8-10]、文献[52-53]:文献[8-10]提出并发展了一类基于区域分割的多类目标检测方法,这类方法通过已训练好的深度模型来取得特征[51],同时结合SVM方法来实现类别判定;文献[52-53]中提出利用已训练好的深度模型对整个检测场景提取深度特征,并结合长短期记忆网络(LSTM)模型,提出基于序列分割的回归检测方法。

3.2 無监督域自适应目标检测方法

无监督的含义是指目标应用场景不提供任何带标签的样本。这些方法几乎都是基于实例的,也是目前学界使用较多的路线,它们大致可以分为两类,分别记为D1和D2。

D1类方法基本思路是通过迭代的方式,从目标域中挖掘有用信息,来重新训练原检测器,其基本框架如图8b)所示。比较有代表性的论文有文献[54-61]:文献[54]中提出通过一个基于外表特征的目标检测器,来设定置信度,将目标场景中满足置信度的正负样本挑选出来,重新训练检测器;文献[55-56]利用互训练方法,迭代地训练基于不同特征的分类器;文献[57]提出一种在线分类器学习算法,在每次迭代中,该算法通过背景差化技术,对目标场景检测结果进行自动标注,然后借助这些标注结果重新训练原分类器;文献[58]结合复杂网络,迭代学习目标检测器以及源领域和目标领域样本的权重;文献[59-60]中基于图的方法、上下文信息计算源领域和目标领域样本的置信度,通过融合置信度和上下文信息的SVM,不断迭代训练样本权重和置信度,取得较好的效果;与之类似,文献[61]提出了一个基于深度CNN的方法,通过新增重建层和聚类层,实现了对多尺度场景特征和视觉模式的挖掘。

D2类方法是非迭代的方案。比较有代表性的论文有文献[62-63]:文献[62]提出了基于特征联合学习的深度网络,该方法中首先基于源域样本和目标域样本,通过栈式自编码器(SAE),学习得到一个特征变换,将样本映射到某特征空间,然后利用源域样本的标签信息,训练得到基于该特征空间的SVM分类器;文献[63]提出了针对监测控制视频的检测器迁移方法,它的核心思想是通过视频的时序线索来对随机生成的候选图像块进行筛选,然后利用过滤后的样本训练新的分类器;文献[64]提出一种基于神经调控的检测器迁移方法,该方法利用一个调控网络对位于深度网络末端的分类器,进行自适应地加权调整,为每一个目标域样本,生成专有的分类器。

4 问题和展望

对于域自适应目标分类,主要问题为:现有的方法要么基于概率匹配的思路(A类和B1类),要么从抽象流形这一个几何观点设计相关算法(B2类),它们都忽略了样本本身所构成的流形几何结构。事实上,样本本身是存在某种几何关系的,即所谓的流形结构。大量与流形学习有关的工作[65-66]已经证实了这一点。如果我们能利用这些几何结构来约束特征表达,将有利于样本特征鲁棒性的提高。

对于域自适应目标检测,其问题为:现有方法为了迁移检测器,要么要求目标场景含有带标签的样本,来实现对源域知识的迁移(C类);要么需要保留全部源样本,来实现对目标场景挖掘信息的评估(D类)。换而言之,现有方法对源样本和带标签的目标域样本存在依赖。这一问题使得现有的方法很难适用于某些真实的应用场景,这主要体现在3个方面:(1)有些真实场景很难获取带标签的样本,特别是非结构化的应用环境;(2)大量硬件设备的计算能力和存储空间都是有限的,基于所有源样本进行置信度评估不仅会造成额外的计算开销,还会带来巨大的存储负担;(3)对具有动态背景的场景并不适用。

5 结束语

近年来,许多学者针对域自适应目标识别问题,从理论和应用方面展开研究,并取得很多成果。文章对现有的域自适应目标识别方法进行了综述:首先,我们分别介绍域自适应学习和目标识别,在此基础上,将域自适应目标识别细化为域自适应分类和域自适应目标检测两个基本问题;然后,以半监督和无监督为基本线索,分别对这两个问题进行了综述,重点对各种方法的核心思想,以及发展脉络进行了梳理;最后,总结了现有方法所存在的问题。

参考文献

[1] PAN J S, YANG Q. A Survey on Transfer Learning[J]. IEEE Transactions on Knowledge and Data Engineering (TKDE), 2010, 22(10):1345-1359. DOI: 10.1109/TKDE.2009.191

[2] HOWSE J. OpenCV Computer Vision with Python[M]. UK: Packt Publishing Ltd., 2013

[3] NEUBECK A, GOOL L V. Efficient Non-Maximum Suppression[C]//International Conference on Pattern Recognition (ICPR). China, 2006: 850-855

[4] SZEGEDY C, TOSHEV A, ERHAN D. Deep Neural Networks for Object Detection[C]// Annual Conference on Neural Information Processing Systems (NIPS).USA, 2013: 2553-2561

[5] GIRSHICK R, IANDOLA F, DARRELL T, et al. Deformable Part Models are Convolutional Neural Networks[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2015: 437-446

[6] REDOM J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-Time Object Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2016:779-788

[7] FU M, XU P, LI X, et al. Fast Crowd Density Estimation with Convolutional Neural Networks[J].Engineering Applications of Artificial Intelligence, 2015, 43:81-88. DOI: 10.1016/j.engappai.2015.04.006

[8] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detectionand Semantic Segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR). USA:IEEE, 2014:580-587

[9] GIRSHICK R. Fast R-CNN[C]//IEEE International Conference on Computer Vision (ICCV). USA: IEEE, 2015: 1440-1448

[10] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2015: 91-99

[11] KATE S, BRIAN K, MARIO F, et al. Adapting Visual Category Models to New Domains [C]//European Conference on Computer Vision (ECCV). Greece: ECCV, 2010:213-226

[12] QIU Q, PATEL V M, TURAGA P, et al. Domain Adaptive Dictionary Learning [C]// European Conference on Computer Vision (ECCV). Italy: ECCV, 2012, 631-645

[13] BERGAMO A, TORRESANI L. Exploiting Weakly-Labeled Web Images to Improve Object Classification: A Domain Adaptation Approach [J]. Annual Conference on Neural Information Processing Systems (NIPS), 2010:181-189

[14] DUAN L, TSANG I W, XU D, et al. Domain Adaptation from Multiple Sources Via Auxiliary Classifiers[C]//International Conference on Machine Learning (ICML). Canada: ICML, 2009:289-296

[15] DAI W, YANG Q, XUE G R, et al. Boosting for Transfer Learning[C]//International Conference on Machine Learning (ICML). USA: ICML, 2007: 193-200

[16] XU Z, SUN Z. Multi-View Transfer Learning with Adaboost [C]//International Conference on Tools with Artificial Intelligence (ICTAI). USA: ICTAI, 2011:399-402

[17] XU Z, SUN S. Multi-Source Transfer Learning with Multi-View Adaboost [C]//International Conference on Neural Information Processing (ICNIP). Qatar: ICNIP, 2012:332-339. DOI: 10.1007/978-3-642-34487-9_41

[18] JIANG W, ZAVESKY E, CHANG S F, et al. Cross-Domain Learning Methods for High-Level Visual Concept Classification[C]//IEEE International Conference on Image Processing (ICIP). USA:IEEE, 2008:161-164

[19] BLITER J, McDONALD R, PEREIRA F. Domain Adaptation with Structural Correspondence Learning[C]//Conference on Empirical Methods in Natural Language Processing (EMNLP). Australia: EMNLP, 2006:120-128

[20] DAI W, XUE G R, YANG Q, et al. Co-Clustering Based Classification for Out-of-Domain Documents[C]//International Conference on Knowledge Discovery and Data Mining (ICKDDM), USA: ICKDDM, 2007:210-219

[21] PAN S J, I. TSANG W, KWOK J T, et al. Domain Adaptation Via Transfer Component Analysis[J].IEEE Transactions on Neural Networks (TNN), 2011, 22(2):199-210

[22] DUAN L, TSANG I W, XU D. Domain Transfer Multiple Kernel Learning [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (PAMI), 2011, 34(99):1-1

[23] HUBERT T Y H, YEH Y R, WANG F Y C. Learning Cross-Domain Landmarks for Heterogeneous Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2016:5081-5090

[24] DAI W, CHEN Y, XUE G R, et al. Translated Learning: Transfer Learning Across Different Feature Spaces[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2008:353-360

[25] KULIS B, SAENKO K, DARRELL T. What You Saw is Not What You Get: Domain Adaptation Using Asymmetric Kernel Transforms[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).USA: CVPR, 2011:1785-1792. DOI: 10.1109/CVPR.2011.5995702

[26] DUAN L, XU D, TSANG I. Learning with Augmented Features for Heterogeneous Domain Adaptation [J]. Computer Science, 2012:711-718. DOI: 10.1109/TPAMI.2013.167

[27] LONG M, WANG J, DING G, et al. Transfer Feature Learning with Joint Distribution Adaptation[C]//IEEE International Conference on Computer Vision (ICCV). Australia: ICCV, 2013: 2200-2207. DOI: 10.1109/ICCV.2013.274

[28] M. Chen, Z. Xu, K. Weinberger, et al. Marginalized Denoising Autoencoders for Domain Adaptation[J]. Computer Science, 2012

[29] GLOROT X, BORDES A, BENGIO Y. Domain Adaptation for Large-Scale Sentiment Classification: A Deep Learning Approach[C]//International Conference of Machine Learning (ICML). USA:ICML, 2011:611-618

[30] LONG M J W, CAO Y, JORDAN M I. Learning Transferable Features with Deep Adaptation Networks[C]//International Conference on Machine Learning (ICML), France: ICML, 2015: 97-105

[31] LONG J W M, ZHUY H, JORDAN M I. Unsupervised Domain Adaptation with Residual Transfer Networks[C]//Annual Conference on Neural Information Processing Systems (NIPS). Spain: NIPS, 2016:10-18

[32] GANIN V L Y. Unsupervised Domain Adaptation by Back Propagation[C]//International Conference on Machine Learning (ICML). France: ICML, 2015:280-288

[33] GOODFELLOW I J, POUGETABADIE J, MIRZA M, et al. Generative Adversarial Networks[J]. Advances in Neural Information Processing Systems, 2014(3): 2672-2680

[34] SUN S, XU Z, YANG M. Transfer Learning with Part-Based Ensembles[C]//International Workshop on Multiple Classifier Systems. China: LNCS, 2013:271-282. DOI: 10.1007/978-3-642-38067-9_24

[35] TU W, SUN S. Crossdomain Representation-Learning Framework with Combination of Class Separate and Domain Merge Objectives[C]//International Workshop on Cross Domain Knowledge Discovery in Web and Social Network Mining. USA, 2012:18-25. DOI: 10.1145/2351333.2351336

[36] SCHOLKOPF B, PLATT J, HOFMANN T. Correcting Sample Selection Bias by Unlabeled Data[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2006: 601-608

[37] GONG B, GRAUMAN K, SHA F. Connecting the Dots with Landmarks: Discriminatively Learning Domain-Invariant Features for Unsupervised Domain Adaptation[C]//International Conference on Machine Learning (ICML). USA:ICML, 2013:222-230

[38] ZADROZNY B. Learning and Evaluating Classifiers Under Sample Selection Bias[C]//International Conference on Machine Learning (ICML).Canada: ICML, 2004: 114-122

[39] FAN W, DAVIDSON I, ZADROZNY B, et al. An Improved Categorization of Classifiers Sensitivity on Sample Selection Bias[C]//International Conference on Data Mining. USA, 2005:4-10

[40] SUGIYAMA M, NAKAJIMA S, KASHIMA H, et al. Direct Importance Estimation with Model Selection and Its Application to Covariate Shift Adaptation[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2008:1433-1440

[41] WANG C, MAHADEVAN S. Heterogeneous Domain Adaptation Using Manifold Alignment[C]//International Joint Conference on Artificial Intelligence (IJCAI), Spain: IJCAI, 2011:1541

[42] GOPALAN R, LI R, R. Chellappa. Domain Adaptation for Object Recognition: An Unsupervised Approach[C]//IEEE International Conference on Computer Vision (ICCV), Spain, 2011: 999-1006. DOI: 10.1109/ICCV.2011.6126344

[43] SHA F, SHI Y, GONG B, et al. Geodesic Flow Kernel for Unsupervised Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR). USA:IEEE, 2012:2066-2073

[44] CHOPRA R G S, BALAKRISHNAN S. DLID: Deep Learning for Domain Adaptation by Interpolating Between Domains[C]//International Conference on Machine Learning (ICML) Workshop on Challenges in Representation Learning. USA: ICML, 2013

[45] NI J, QIU Q, CHELLAPPA R. Subspace Interpolation Via Dictionary Learning for Unsupervised Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2013: 692-699

[46] CASEIRO R, HENRIQUES J F, MARTINS P, et al. Beyond the Shortest Path: Unsupervised Domain Adaptation by Sampling Subspaces Along the Spline Flow[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2015:3846-3854. DOI: 10.1109/CVPR.2015.7299009

[47] DUAN L, XU D, TSANG W H, et al. Visual Event Recognition in Videos by Learning from Web Data[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA: IEEE, 2010: 1959-1966. DOI: 10.1109/TPAMI.2011.265

[48] SERMANET P, KAVUKCUOGLU K, CHINTALA S, et al. Pedestrian Detection with Unsupervised Multistage Feature Learning[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2013:3626-3633

[49] LI X, YE M, FU M, et al. Domain Adaption of Vehicle Detector Based on Convolutional Neural Networks [J]//International Journal of Control, Automation and Systems (IJCAS), 2015, 13(4):1020-1031. DOI: 10.1007/s12555-014-0119-z

[50] PANG J, HUANG Q, YAN S, et al. Transferring Boosted Detectors Towards Viewpoint and Scene Adaptiveness [J]. IEEE Transactions on Image Processing (TIP), 2011, 20(5):1388-1400

[51] DENG J, DONG W, SOCHER R, et al. ImageNet: A Large-Scale Hierarchical Image Database[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA: IEEE, 2009: 248-255. DOI: 10.1109/CVPR.2009.5206848

[52] LI X, YE M, LIU D, et al. Memory-Based Object Detection in Surveillance Scenes[C]//IEEE International Conference on Multimedia and Expo (ICME). USA,IEEE, 2016:1-6. DOI: 10.1109/ICME.2016.7552920

[53] LI X, YE M, LIU Y, et al. Accurate Object Detection Using Memory-Based Models in Surveillance Scenes[J]. Pattern Recognition, 2017(67):73-84

[54] ROSENBERG C, HEBERT M, SCHNEIDERMAN H. Semi-Supervised Self-Training of Object Detection Models[C]//IEEE Workshop on Applications of Computer Vision/IEEE Workshop on Motion and Video Computing. USA:IEEE, 2005:29-36

[55] LEVIN A, VIOLA P, FREUND Y. Unsupervised Improvement of Visual Detectors Using Co-Training[C]//IEEE International Conference on Computer Vision (ICCV). USA: IEEE, 2003:626-633

[56] WU B, NEVATIA R. Improving Part Based Object Detection by Unsupervised, Online Boosting[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2007:1-8

[57] NAIR V, CLARKJ J. An Unsupervised, Online Learning Framework for Moving Object Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2004: 317-324. DOI: 10.1109/CVPR.2004.34

[58] WANG M, WANG X. Automatic Adaptation of a Generic Pedestrian Detector to a Specific Traffic Scene[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2011: 3401-3408. DOI: 10.1109/CVPR.2011.5995698

[59] WANG X, LI W, WANG M. Transferring a Generic Pedestrian Detector Towards Specific Scenes[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2012:3274-3281

[60] WANG X, WANG M, LI W. Scene-Specific Pedestrian Detection for Static Video Surveillance[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (PAMI), 2014, 36(2):361-74

[61] ZENG X, OUYANG W, WANG M, et al. Deep Learning of Scene-Specific Classifier for Pedestrian Detection[C]//European Conference on Computer Vision (ECCV). Switzerland:ECCV, 2014:472-487

[62] HTIKE K K, HOGG D. Unsupervised Detector Adaptation by Joint Dataset Feature Learning[C]//International Conference on Computer Vision and Graphics (ICCVG). Poland: ICCVG, 2014: 270-277

[63] HTIKE K K, Hogg D C. Efficient Non-Iterative Domain Adaptation of Pedestrian Detectors to Video Scenes[C]//IEEE International Conference on Pattern Recognition (ICPR). USA:IEEE, 2014:654-659. DOI: 10.1109/ICPR.2014.123

[64] TANG S, YE M, ZHU C, et al. Adaptive Pedestrian Detection Using Convolutional Neural Network with Dynamically Adjusted Classifier[J]. Journal of Electronic Imaging, 2017, 26(1): 013012

[65] ROWEIS S T, SAUL L K. Nonlinear Dimensionality Reduction by Locally Linear Embedding [J]. Science, 2000, 290(5500):2323-2326

[66] TENENBAUM J B, SILVA V D, LANGFORD J C. A Global Geometric Framework for Nonlinear Dimensionality Reduction[J]. Science, 2001, 290(5500):2319-2323

猜你喜欢

目标检测
多视角目标检测与跟踪技术的研究与实现
视频中目标检测算法研究
行为识别中的人体运动目标检测方法
移动机器人图像目标识别
基于背景建模法的运动目标检测
基于P3电位的目标检测研究
智能视频技术在电力系统领域的应用
相关K分布杂波中扩展目标积累检测性能分析
基于连通域标记的目标检测算法设计与实现
一种改进的峰均功率比判源方法