APP下载

基于解码器注意力机制的视频摘要

2018-10-22江俊杰

关键词:解码器解码编码器

冀 中,江俊杰



基于解码器注意力机制的视频摘要

冀 中,江俊杰

(天津大学电气自动化与信息工程学院,天津 300072)

作为一种快速浏览和理解视频内容的方式,视频摘要技术引起了广泛的关注.本文将视频摘要任务看作是序列到序列的预测问题,设计了一种新颖的基于解码器的视觉注意力机制,并基于此提出一种有监督视频摘要算法.所提方法考虑到视频帧之间的内在关联性,利用长短时记忆网络将注意力集中在历史的解码序列,融合历史的解码信息有效地指导解码,提升模型预测的准确性.所提算法主要在TVSum和SumMe数据集上进行了大量实验,验证了其有效性及先进性.

视频摘要;视觉注意力模型;编解码模型;长短时记忆网络

近年来,如何对海量视频数据进行快速有效的浏览、检索和分析成为了多媒体分析领域的研究热点.视频摘要是其中一项具有重要理论和实际应用价值的技术,受到了广泛的关注.它是指利用智能分析技术分析视频结构、理解视频内容,并从原始的数据中选取具有代表性的、有意义的部分,将它们以某种方式组合并生成紧凑的、用户可读的原始视频的缩略[1].依据摘要的最终呈现形式,视频摘要通常分为两种形式:基于关键帧(key frames)的静态视频摘要和基于关键镜头(key shots)的动态视频摘要,本文关注的是后者.

目前视频摘要的研究大多基于无监督的学习方法,包括聚类[2-5]、图模型[6-9]、稀疏编码[10-12]等方法.近几年,研究者开始聚焦于有监督的视频摘要方法[13-19].有监督的方法直接从人工标注的视频摘要学习选取摘要的准则,使摘要的自动生成方式类似于人选取摘要的决策过程,摘要的结果更接近人类的理解方式.这类方法要解决的问题是如何从原始视频帧序列中提取关键帧或者关键镜头序列,其本质可视为一种序列到序列(sequence-to-sequence,Seq2Seq)的结构化预测问题[20].编解码器(ecoder-decoder)框架就是解决此类问题的有效方式之一.在该框架中,编码器将输入序列编码成固定长度的中间向量,然后解码器再将其解码成符合任务需求的输出序列.编码器和解码器一般采用循环神经网络(recurrent neural network,RNN)或长短时记忆(long short-term memory,LSTM)网络,尤其是LSTM在建模长期依赖性问题上有着极大的优势,能够深层次地挖掘对解决任务有用的序列信息.

用户在选取视频摘要时存在一种视觉注意力机制,即越受人眼关注的镜头或者视频帧,被选入摘要的可能性越大.现有的一些工作试图对注意力机制进行建模,以此作为选取摘要的依据.例如,Ma等[21]利用视频的运动、脸部、相机聚焦以及声音等信息,分别以线性和非线性的方法融合这些信息构建注意力模型,指导视频摘要的生成.Ejaz等[22]基于图像的显著性检测方法和时间梯度分别对静态注意力和动态注意力进行建模,然后非线性地融合两种注意力模型以此生成摘要.然而,上述工作仅仅利用了底层特征,很难对人类抽象的视觉注意力机制进行建模.而且现有方法均是利用无监督的方法人为地构建注意力模型,具有一定的局限性,无法较好地学习用户选取摘要时的注意力机制.

而基于注意力机制的编解码器框架已经在机器翻译[23-24]、文本摘要[25]、图像描述[26]、视频描述[27-28]等任务中有突出的表现.如Bahdanau等[23]在处理英语翻译为法语的任务时,编码器采用双向LSTM对英语单词序列进行编码,解码器在预测每个法语单词时,会以不同的注意力权重关注编码序列中不同位置的编码向量,从而提升了翻译的准确性.在文献[27]中,编码器将原始视频编码成视频特征序列,解码器利用视频特征序列生成描述性的语句,解码器在每一时刻生成单词时会关注编码序列中不同位置的视频特征.

受有监督的视觉注意力模型在机器翻译[23-24]、视频描述[27-28]等领域的启发,本文设计了一种新颖的视觉注意力机制,与编解码框架结合起来,提出了基于解码器注意力机制的有监督视频摘要算法.

本文的创新点有2个.①设计了一种新颖的基于解码器的视觉注意力机制.考虑到视频帧之间的内在关联性,利用长短时记忆网络将注意力集中在历史的解码序列,融合历史的解码信息有效地指导当前的解码过程,提升模型预测的准确性.②将所提注意力机制与编解码器框架相结合,提出一种新的有监督视频摘要方法SUM-attDecoder,并在主流的数据集上验证了其有效性与先进性.

1 相关工作

依据生成摘要的过程中是否需要标注信息,视频摘要的研究可分为无监督和有监督两大类方法.其中无监督的视频摘要研究较早,常用的方法包括聚 类[2-5]、图模型[6-9]、稀疏编码[10-12]等.例如,VSUMM[2]通过对视频的颜色特征进行均值聚类,并且通过聚类中心生成视频摘要.为了建模视频帧间的高阶信息,文献[8]提出一种基于超图模型的视频摘要方法,通过对视频帧构建超图模型,然后在此基础上进行主集聚类得到视频摘要.Panda等[9]将视频摘要视为图聚类问题,运用骨架图和随机游走方法对该问题建模.Mei等[10]提出了最小稀疏重构的方法,通过最小化原始视频帧与候选关键帧之间的重构误差的原则来选取摘要,最终误差最小的候选关键帧可作为摘要.文献[11]通过包含帧内视角和帧间视角的相关性的目标函数学习联合嵌入空间,然后结合学习到的嵌入空间,采用稀疏表征选择的方法生成多视点视频摘要.Li等[29]结合视觉、音频信息,在最大边界相关的思想下设计了迭代选择关键镜头的视频摘要算法.最近,基于生成视频摘要的内容和原视频内容尽可能相近的原则,文献[30]应用对抗生成网络(GAN)生成视频摘要,也取得了较好的性能.

有监督的视频摘要是基于原始视频的人工标注学习一个摘要选择器,使其提取的摘要最大程度地接近人工的选取标准.例如,Gong等[13]提出序列行列式点过程(sequential determinantal point process,seqDPP)方法,目的是最大程度地减少提取关键帧的冗余性,使提取的关键帧和人工摘要更接近.Zhang等[14]重点考虑了相似视频的结构相关性,利用非参数方法学习从标注视频到测试视频的迁移摘要结构,以此来指导摘要的生成.Gygli等[15]通过设计多目标函数,使生成的摘要能满足兴趣度、代表性、均匀性的评价标准.Li等[16]设计了4个评价标准,分别是代表性、多样性、故事性和重要性,通过建立一个评分函数来线性地组合这4个评价指标作为生成摘要的指导准则.Potapov等[18]首先将特定主题的目标视频分割成语义一致的视频片段,再用SVM分类器预测每个片段的分数,选择分数最高的视频片段作为摘要.Gygli等[31]将视频先分割成超帧,再结合底层特征和高层特征来训练线性回归模型预测超帧的兴趣度,最后通过求解最大化超帧的兴趣度问题来选取视频摘要.

近年来,基于深度学习方法的视频摘要也引起了研究者的关注.例如,Zhang等[17]首次将视频摘要看作序列到序列问题,引入长短时记忆模型LSTM和多层感知器对视频帧序列进行建模,并设计了交叉熵和行列式点过程(determinantal point process,DPP)2个目标函数分别保证选取摘要的重要性和多样性.Yang等[32]结合自编码器和LSTM模型对视频序列进行建模,并设计了指数衰减的损失函数,用于提取视频中的精彩片段.与已有方法不同,本文在LSTM模型的基础上引入了视觉注意力机制,在预测视频帧分数时充分利用历史解码信息,从而提升了模型预测的准确性.

2 所提方法

本文的算法主要包括编解码模型和关键镜头选取模型,如图1所示.编解码模型由编码器和解码器构成,作用是将视频序列映射成重要性分数序列,预测每一视频帧的重要性程度.关键镜头选取模型则根据视频帧的重要性分数,利用动态规划方法选取最优的视频镜头集合,生成视频摘要.

图1 本文算法的示意

2.1 编码器模型

本文将有监督的视频摘要任务看作是Seq2Seq的预测问题,输入序列是一段视频帧序列,输出序列是对应视频帧的重要性分数.在解决Seq2Seq问题时,通常先将输入序列通过编码器转换成中间码的形式再映射成输出序列.在有监督的视频摘要中,编码器的作用是将提取好的视频特征全部编码成能描述视频时序特性的向量序列,再将其送入解码器.编码器可以表示为

 (1)

2.2 所提解码器模型

解码器的作用是将编码器转换成的中间码映射成输出序列.如果输出序列的长度大于1,解码器一般要设计成可循环的结构,因为解码器需要通过获取已被预测出的历史信息来防止重复预测.尤其是在引入注意力机制的模型中,历史的解码信息对当前解码过程的影响程度不同,而且不同时刻的注意力权重会有所不同.因此,解码器必须能够储存历史信息.

本文采用的解码器是由1层LSTM网络和2个全连接层构成,定义解码器的输出公式为

 (2)

2.2.1 SUM-LSTM算法

为了验证视觉注意力机制对编解码器框架性能的提升,本文首先设计了一个基准模型,称为SUM-LSTM,它由编码器和解码器构成,编码器的结构同第2.2节所述,解码器为未引入视觉注意力机制的单层LSTM网络和两个全连接层,结构如图2所示,该模型的LSTM网络公式为

 (3)

2.2.2 SUM-attDecoder算法

 (4)

 (5)

 (6)

 (7)

因为多层感知器的输出是数值,而参与LSTM网络内部循环运算的是向量,因此本文视觉注意力机制利用的历史解码信息指的是解码器中LSTM网络的历史输出向量,以便于注意力信息参与运算.

2.3 关键镜头选取模型

视频摘要的最终呈现形式是镜头集合,因此首先对视频进行镜头检测,分割成若干个视频镜头作为后续摘要提取的候选镜头.本文采取基于核的时域分割(kernel temporal segmentation,KTS)[18]镜头检测算法.镜头检测后,利用所提SUM-attDecoder模型预测得到的视频帧重要性分数计算每个镜头的重要性分数,即对镜头包含视频帧的重要性分数求和.

 (8)

3 实验结果及分析

3.1 实验数据

本文的实验用到了4个公开的标准数据集,分别是SumMe[31]、TVSum[33]、YouTube[2]和 OVP[2].其中,后2个数据集主要用于数据增强实验的验证. SumMe数据集包含25个视频,记录了节日、运动、重大事件等主题的内容,视频时长为1~6,min.这些视频都是用户拍摄的原始视频,并未做后期处理,包含较多的冗余信息.TVSum数据集是通过在YouTube网站上搜索10个视频类别的关键词搜集的,它一共有50个视频,每类视频有5个,主题涵盖新闻、记录片、用户视频等,视频时长为2~10,min. YouTube数据集也是在YouTube网站上搜集的1~10,min视频,视频类型主要有动画片、新闻、运动、商业、电视节目和家庭视频,一共有50个视频.但是考虑到动画片与其他类型的视频在内容、颜色、时长方面差异较大,不利于模型的训练和测试,所以与文献[17]相同,本文采用的YouTube数据集剔除了11个动画视频,保留剩下的39个视频作为数据集.OVP数据集的50个视频均来自于open video project网站.

表1是对4个数据集的详细描述,其中SumMe、TVSum的标签是人工标注的重要性分数,而YouTube、OVP的标签是人工选取的关键帧,本文将其转化为重要性分数——对应关键帧的位置分数为1,否则为0.数据集划分为训练集、验证集以及测试集,比例分别为60%,、20%,、20%,.

表1 数据集的详细描述

Tab.1 Detailed description of dataset

3.2 实验参数和评价指标

在预处理中对原始视频进行下采样,采样率为2,帧/s.为了便于与vsLSTM[17]算法比较,笔者利用在ImageNet数据集上预训练的GoogLeNet网络提取特征,将该网络倒数第2层的输出向量作为视频帧的特征.本文算法的3个LSTM层,每层都含有256个单元数,且多层感知器第1层含有256个单元,第2层含有1个单元.训练时采用的最优化算法是随机梯度下降法,BatchSize的大小为16,视频帧样本序列的长度为10,学习率为0.0015,本算法的目标函数是均方差函数.对于SumMe和TVSum数据集,每个数据集上做10次实验,取F值的平均值作为该数据集的评价指标.

与文献[17]相同,采用F值(Fscore)对结果进行评价,它可由精度(Pre)、召回率(Rec)计算得到,即

 (9)

 (10)

 (11)

3.3 实验分析与讨论

表2给出了所提算法与对比算法在SumMe和TVSum数据集上的实验结果比较,对比算法都是近几年提出的先进的无监督和有监督的视频摘要算法.其中vsLSTM[17]与本文SUM-LSTM方法都是基于编解码器框架,不同之处在于其解码器是全连接层,没有利用视觉注意力机制.

从表2中可以看出,本文所提算法在2个数据集上均取得了较高的性能.在SumMe数据集上,所提SUM-attDecoder算法取得了最好的性能,比最好的对比算法vsLSTM高0.6%,.而在TVSum数据集上,所提算法取得了次优的性能,比性能最好的vsLSTM低1.3%,.由此可以看出,所提SUM-attDecoder算法生成的视频摘要质量是比较好的.所提算法较vsLSTM具有更高的模型复杂度,需要更多类别的视频来训练网络,TVSum数据集仅有10类视频,导致训练模型的泛化性较差,因此所提算法在TVSum数据集上的性能低于vsLSTM.这也是表3中在数据增强后所提算法的性能反而超过vsLSTM的原因.

表2 不同视频摘要算法的性能对比

Tab.2 Performance comparison between different video summarization methods

表3 数据增强下的性能对比

Tab.3 Performance comparison under data augmentation

与基准算法SUM-LSTM相比较,如表2所示,解码器引入视觉注意力机制后模型性能有了显著的提升.具体地,在SumMe数据集上提升了3.1%,,而在TVSum上提升效果更显著,为8.7%,.由此可见,本文提出的视觉注意力机制极大地改善了编解码器模型的性能,特别是在规模较大的数据集上,提升效果较为明显.

进一步,与文献[17]类似,笔者验证了所提SUM-attDecoder方法在数据增强情况下的性能,如表3所示.具体地,随机选取数据集中20%,的数据用于测试,将剩下80%,的数据和另外3种数据集共同构成训练集和验证集.可以看出,所提SUM-attDecoder方法在数据增强后性能有较为显著的提升,且在2个数据集上性能分别高于vsLSTM方法2.4%,和1.0%,,这说明SUM-attDecoder更适合于大规模数据集.这是因为在深度学习模型的训练过程中,当训练数据较少时容易过拟合,导致模型预测的准确性不高.但当数据较大时,性能就会有较大提升,尽管这几个数据集在内容和风格上存在差异,但它们依然为模型的学习提供了更多的摘要标注数据,有利于深度模型的学习,因此最后生成的视频摘要的质量有所提高.

另外,笔者还分析了注意力范围对性能的影响.SUM-attDecoder方法在预测每个视频帧重要性分数时,利用了历史的解码信息,通过融合历史解码序列作为注意力信息有效地指导当前视频帧重要性分数的预测,提升了模型预测的准确性.而在模型的预测中不同时间跨度的相邻视频帧对当前时刻预测的指导作用不同,为此本文研究了注意力范围(视频样本序列长度)5~20变化时对性能的影响,如图4所示.

图4 不同注意力范围对性能的影响

可以看出,不同的注意力范围对性能影响不同,随着数值的增大性能会有所提升,在数值为10时达到顶峰,然后下降.笔者分析最优的注意力范围为10的原因与镜头长度有关.因为实验中KTS算法分割出的镜头平均长度为10,通常同一个镜头的视频帧关联性较大,邻近视频帧的指导作用更大,而不同镜头视频帧的关联性较小.从总体趋势可以看出注意力范围过大和过小时模型的性能会较差,注意力范围过小时关注的邻近视频帧较少,指导信息稍显不足;过大时关注的邻近视频帧较多,不同镜头的视频帧会干扰模型的预测,致使生成视频摘要的质量较低.

4 结 语

本文设计了一种新颖的基于解码器的视觉注意力机制,通过与现有的编解码器框架结合起来,提出一种新的有监督视频摘要算法.所提算法将视频摘要看作是视频序列到重要性分数序列的预测问题,利用LSTM网络对该问题进行建模,并在解码器部分引入了视觉注意力机制,有效地利用历史的解码信息,提升了模型预测的准确性.大量的实验结果证明了所提算法的有效性和先进性,并且分析了数据增强、视觉注意力模型、注意力范围对本文算法的影响.

有监督学习的方法依赖于大量的人工标注数据,现有的视频摘要数据集规模较小,导致训练模型不够充分.今后的研究方向是如何在有限的标签数据下提升模型的泛化性,可以借鉴迁移学习[35]等技术.

[1] 王 娟,蒋兴浩,孙锬锋. 视频摘要技术综述[J]. 中国图象图形学报,2014,19(12):1685-1695.

Wang Juan,Jiang Xinghao,Sun Tanfeng. Review of video abstraction[J].,2014,19(12):1685-1695(in Chinese).

[2] de Avila S E F,Lopes A P B. VSUMM:A mechanism designed to produce static video summaries and a novel evaluation method[J].,2011,32(1):56-68.

[3] Furini M,Geraci F,Montangero M,et al. STIMO:Still and moving video storyboard for the web scenario [J].,2010,46(1):47-69.

[4] Kuanar S K,Panda R,Chowdhury A S. Video key frame extraction through dynamic delaunay clustering with a structural constraint[J].,2013,24(7):1212-1227.

[5] Wu J,Zhong S H,Jiang J,et al. A novel clustering method for static video summarization[J].,2017,76(7):1-17.

[6] Ji Z,Zhang Y Y,Pang Y W,et al. Hypergraph dominant set based multi-video summarization[J].,2018,148:114-123.

[7] Demir M,Bozma H I. Video summarization via segments summary graphs[C]//. Santiago,Chile,2016:1071-1077.

[8] 冀 中,樊帅飞,基于超图排序算法的视频摘要[J]. 电子学报,2017,45(5):1035-1043.

Ji Zhong,Fan Shuaifei. Video summarization with hypergraph ranking[J].,2017,45(5):1035-1043(in Chinese).

[9] Panda R,Kuanar S K,Chowdhury A S. Scalable video summarization using skeleton graph and random walk [C]//Stockholm,Sweden,2014:3481-3486.

[10] Mei S,Guan G,Wang Z,et al. Video summarization via minimum sparse reconstruction [J].,2015,48(2):522-533.

[11] Panda R,Das A,Roy-Chowdhury A K. Video summarization in a multi-view camera network[C]//Cancun,Mexico,2016:2971-2976.

[12] Ji Z,Ma Y R,Pang Y W,et al. Query-aware sparse coding for multi-video summarization[EB/OL]. https:// arxiv.org/abs/1707.04021,2017.

[13] Gong B,Chao W L,Grauman K,et al. Diverse sequential subset selection for supervised video summarization[C]//Montreal,Canada,2014:2069-2077.

[14] Zhang K,Chao W,Sha F,et al. Summary transfer:Exemplar-based subset selection for video summarization [C]//Las Vegas,USA,2016:1059-1067.

[15] Gygli M,Grabner H,van Gool L. Video summarization by learning submodular mixtures of objectives [C]//Boston,USA,2015:3090-3098.

[16] Li X,Zhao B,Lu X. A general framework for edited video and raw video summarization[J].,2017,26(8):3652-3664.

[17] Zhang K,Chao W L,Sha F,et al. Video summarization with long short-term memory[C]//Amsterdam,Netherlands,2016:766-782.

[18] Potapov D,Douze M,Harchaoui Z,et al. Category-specific video summarization[C]//Zurich,Sitzerland,2014:540-555.

[19] Yong J L,Ghosh J,Grauman K. Discovering important people and objects for egocentric video summarization [C]//Providence,USA,2012:1346-1353.

[20] Sutskever I,Vinyals O,Le Q V. Sequence to sequence learning with neural networks[C]//Montreal,Canada,2014:3104-3112.

[21] Ma Y F,Lu L,Zhang H J,et. al. A user attention model for video summarization[C]//. Juan les Pins,France,2002:533-542.

[22] Ejaz N,Mehmood I,Baik S W. Efficient visual attention based framework for extracting key frames from videos[J].,2013,28(1):34-44.

[23] Bahdanau D,Cho K,Bengio Y. Neural machine translation by jointly learning to align and translate[C]//San Diego,USA,2015:1-15.

[24] Meng F,Lu Z,Wang M,et al. Encoding source language with convolutional neural network for machine translation[C]//Beijing,China,2015:20-30.

[25] Chopra S,Auli M,Rush A M. Abstractive sentence summarization with attentive recurrent neural networks [C]//Berlin,Germany,2016:93-98.

[26] Xu K,Ba J,Kiros R,et al. Show,attend and tell:Neural image caption generation with visual attention [C]//Lille,France,2015:2048-2057.

[27] Yao L,Torabi A,Cho K,et al. Describing videos by exploiting temporal structure[C]//Santiago,Chile,2015:4507-4515.

[28] Venugopalan S,Xu H,Donahue J,et al. Translating videos to natural language using deep recurrent neural networks[C]//Baltimore,USA,2014:1494-1504.

[29] Li Y,Merialdo B. Multi-video summarization based on

Video-MMR[C]//Desenzano del Garda,Italy,2010:1-4.

[30] Mahasseni B,Lam M,Todorovic S. Unsupervised video summarization with adversarial LSTM networks [C]//Honolulu,USA,2017:1-10.

[31] Gygli M,Grabner H,Riemenschneider H,et al. Creating summaries from user videos[C]//Zurich,Switzerland,2014:505-520.

[32] Yang H,Wang B,Lin S,et al. Unsupervised extraction of video highlights via robust recurrent auto-encoders[C]//Santiago,Chile,2015:4633-4641.

[33] Song Y,Vallmitjana J,Stent A,et al. TVSum:Summarizing web videos using titles[C]//Boston,USA,2015:5179-5187.

[34] Zhao B,Xing E P,Quasi real-time summarization for consumer videos[C]//Columbus,USA,2014:2513-2520.

[35] Shao L,Zhu F,Li X. Transfer learning for visual categorization:A survey[J].,2015,26(5):1019-1034.

(责任编辑:王晓燕)

Video Summarization Based on Decoder Attention Mechanism

Ji Zhong,Jiang Junjie

(School of Electrical and Information Engineering,Tianjin University,Tianjin 300072,China)

As a way to quickly browse and understand video content,video summarization has attracted wide attention.This paper treats video summarization as a sequence-to-sequence prediction problem and proposes a novel visual attention model based on decoder,which is further applied to supervised video summarization.The proposed method pays attention to decoding sequence by using long short-term memory network.It considers the intrinsic association between video frames,and utilizes the previous decoding sequences to effectively guide the decoding process,which improves the prediction accuracy.Extensive experiments are mainly conducted on TVSum and SumMe datasets,which demonstrate the effectiveness and superiority of the proposed method.

video summarization;visual attention model;encoder-decoder model;long short-term memory network

TP391

A

0493-2137(2018)10-1023-08

10.11784/tdxbz201801077

2018-01-22;

2018-03-13.

冀中(1979— ),男,博士,副教授.

冀中,jizhong@tju.edu.cn.

国家自然科学基金资助项目(61472273,61771329).

the National Natural Science Foundation of China(No.,61472273 and No.,61771329).

猜你喜欢

解码器解码编码器
融合CNN和Transformer编码器的变声语音鉴别与还原
《解码万吨站》
科学解码器(一)
科学解码器(二)
科学解码器(三)
舞台机械技术与设备系列谈(二)
——编码器
线圣AudioQuest 发布第三代Dragonfly Cobalt蓝蜻蜓解码器
解码eUCP2.0
NAD C368解码/放大器一体机
Quad(国都)Vena解码/放大器一体机