APP下载

基于词项共现关系图模型的中文观点句识别研究

2015-04-12王明文付翠琴徐凡洪欢

中文信息学报 2015年6期
关键词:计算方法特征值分类器

王明文,付翠琴,徐凡,洪欢

(江西师范大学,计算机信息工程学院,江西南昌330022)

1 引言

随着Web 2.0应用的普及,用户生成内容(User-generated content,简称UGC)与日俱增。通常,这些论坛、贴吧、博客、微博等新型媒介的内容蕴含着大量的用户观点信息,这些观点信息存在巨大的潜在价值。例如,生产商通过UGC中的产品评论信息获取用户对产品的情感倾向,并依此作为更新产品的依据。此外,电影投资者通过电影评论来预测电影票房,政府机构根据UGC中的事件评论来分析舆情动态等等。

观点句识别(或情感句识别)是情感分析的一个子任务,其旨在从文档中准确抽取出带有情感倾向的观点句子和不带情感倾向的句子,可以被广泛应用于产品调查、市场预测和舆情分析等诸多领域。

主流的观点句识别方法采用有监督的机器学习技术,利用向量空间模型(Vector Space Model,简称VSM)来表示文档,即把每篇文档表示成一个词项向量或特征向量。这种文档特征向量的表示方法基于词项间强独立性假设,并未考虑词项与词项之间的顺序和依赖关系。在英文观点句识别中,采用基于VSM的有监督机器学习的分类方法可以取得不错的识别性能。然而,由于中文微博、论坛、贴吧等评论信息都是口语化的文本,表达方式多样,而且评论的长度一般有限,这些缺点导致手工构建语法库不仅工作量大,而且与日常口语的表达方式仍然存在差异,采用基于SVM的有监督机器学习方法进行中文观点句识别并不能取得较好的性能。基于图模型的文本表示方法[1-3]可以很好地捕捉中文文本中词项的依赖和句法关系,该方法在信息检索、文档摘要和词义消歧等已取得较好的效果。鉴于此,本文将一种新型的基于词项共现关系的图模型方法应用于中文观点句识别中。该方法通过构建词项共现关系有向图模型,利用词项与词项之间的共现性和句法关系来描述词项在观点句和非观点句集合中的分布差异,同时采用基于入度的词项权重计算方法来计算词项特征值。本文的方法能够有效地捕捉到中文句子中的语法信息,从而免去了昂贵的手工建立语法库的工作;同时本文结合基于信息检索的复杂特征值计算模型,将词项分布特征及词项间的语法信息融入分类器的训练过程中。上述研究在基准语料上进行实验,实验表明采用基于词项关系图模型方法后,中文观点句识别准确率相比目前基于词袋的方法得到显著提升。

本文后续内容组织如下:第二节介绍观点句识别的相关工作;第三节重点介绍本文提出的词项共现关系图模型方法和相应的特征值计算方法;并在第四节给出了实验设置及详细的结果分析;最后,第五节是本文的结论和将来工作部分。

2 相关工作

Pang等[4]首次将文本中的一元词、二元词作为特征,并且采用布尔值(二元值)和词频等特征值计算方法,通过训练朴素贝叶斯(Naive Bayes,简称NB)、支持向量机(Support Vector Machine,简称SVM)、最大熵模型(Maximum Entropy,简称ME)三种分类器对电影评论进行情感分类,实验结果表明使用一元词作为特征和二元值作为特征值训练的SVM分类器的观点句识别效果最好。随后,相关文献分别围绕观点句的特征提取、多分类器的融合和特征值计算等多个方面展开研究。

针对特征提取方面,Kushal等[5]从统计学和语言学的角度提取文本中的特征,并融入N-grams、文本子串和词的邻近性关系等多种有效的特征。Pang和Lee[6]通过建立句子和句子、句子和类别之间的关系图,利用图的最小切割算法来识别文档的主观性部分。徐军等[7]选择具有语义倾向的词汇作为特征项、对否定词正确处理和采用二元值作为特征项权重提高分类的准确。谢丽星等[8]对链接、表情符号、情感词典等进行了多重特征选择,结合主题相关特征训练SVM情感分类器,以此提高性能。

针对多分类器融合方面,Prabowo等[9]构建有监督的分类器时融入规则方法,并用于文本的倾向性分类任务。Qiu等[10]提出了一个自学习的分类模型,该模型分成两个阶段(自学习和分类),通过不断的迭代以增强自学习的性能。徐睿峰等[11]采用多分类器表决的方法进行观点句抽取,表明具有与领域相关的大规模和高质量的标注训练数据为提高分类器的性能提供了重要的保证。吕云云等[12]提出基于自举(BootStrapping,简称BS)的集成分类器的中文观点句识别方法,利用Fisher线性辨别器提取特征并计算特征值,训练了NB,SVM和ME三种分类器,同时将集成分类器具有高置信度的分类结果用于分类器的循环训练过程。

针对特征值计算方面,Justin等[13]提出了一种专门用于情感分析的Delta Term Frequence-Inverse Document Frequence(D-TFIDF)特征值计算方法,通过分别计算词项在观点句和非观点句中的分布来提高分布差异性大的词项的重要性,减弱分布均衡的词项的影响。在Justin的工作基础上,Georgios等[14]将信息检索中的词项权重计算方法首次应用于英文文本情感分析中,实验证明了基于D-TFIDF的BM25的方法具有最好的情感分类性能。Deng等[15]提出了基于词的重要性(importance of a term in a document,简称TID)和词的情感值(importance of a term for expressing sentiment,简称TIS)的特征值计算方法,实验表明在分类性能上要优于基于D-TFIDF的BM25方法。这些特征值计算方法对应的情感分类实验结果均优于Pang提出的用二元值方法,说明了采用不同的特征值计算方法会对观点句识别效果产生较大影响。

综合以上观点句识别模型所述,传统词袋模型驱动的方法依赖于词项间的强独立性假设,忽略了词项之间的依赖关系。因此,本文通过构建词项共现关系图模型,着重考虑了词项间的共现性和句法关系,同时研究和扩充了多种基于信息检索的词项特征计算方法。

3 基于词项共现关系图模型的中文观点句识别方法

本节主要阐述本文提出的新型中文观点句识别方法,主要包括词项共现关系图构建和特征值计算两个方面的内容。

3.1 词项共现关系图构建

已有研究[16-17]表明形容词、动词和名词对句子的观点表达影响更大,而且观点句的表达方式也存在一定的模式,例如,形容词+名词、动词+形容词等结构的句子是观点句的概率更大。然而,微博、论坛、贴吧等评论信息都是口语化的文本,表达方式多样,而且评论的长度一般有限。这些缺点导致了手工构建语法库不仅工作量大,而且与日常口语的表达方式仍然存在差异。

基于此,本文分别构建基于观点句集和非观点句集的词项有向图,自动学习词项在观点句和非观点句中的分布,获得词项之间共现和邻近关系。在有向图中,顶点代表词项,有向边代表词项与词项的共现和邻近关系。若在一个固定窗口中两个词项同时出现,则建立一条词项到词项的有向边,边的方向由词在原文中出现的顺序决定。采用前者指向后者构建的图为前向图(Forward Graph,简称FG),采用后者指向前者构建的图为后向图(Backward Graph,简称BG)。本文以句子为单位来构建词项的有向图,即窗口只在一句话中进行滑动,这是因为一句话在内容上比较相近,同时表达的语义也更为完整。我们通过固定窗口大小,并设定边的方向,构建出每句话的词项有向图,然后将所有句子的有向图进行合并得到相应的词项共现关系图模型。

为了清晰起见,下面通过观点句例1和例2来说明FG模型的构建过程。

例1 总体感觉还是不错,看世界杯挺爽。

例2 效果非常不错,感觉就像真的一样。

首先对每个句子进行预处理,包括分词、删除标点符号和一些无用字符等步骤。得到观点句例1的预处理结果为:“总体感觉还是不错看世界杯挺爽”,观点句例2的预处理结果:“效果 非常 不错 感觉就像真的一样”;

然后以句子为单位,按固定窗口进行滑动,窗口内共现的词项之间建立一条边,词项在原文中出现的顺序即为边的方向;

最后将上述句子的有向图进行合并,得到最终的FG模型。

图1显示了窗口大小为3时,例句1和例句2合并后的FG模型。

图1 FG模型实例

根据图1所示的词项共现关系图模型,我们可以计算出每个词项在观点句和非观点句中的分布情况,分布差异大的词项比分布均衡的词项对观点句的判定影响更大。另外,根据词的共现性和邻近性,使用频率高的短语及语法结构也会更加突出。例如,图1中,带有明显观点倾向的词项“感觉”和“不错”所连接的边数相对较多,同时与这两个词项有直接连接边的词项也是常用的搭配。

3.2 特征值计算

本节首先介绍已有的基于信息检索的特征值计算方案,然后将重点介绍基于上述词项共现图模型文本表示形式下的特征值计算方法。

3.2.1 基于信息检索的特征值计算

在信息检索中,公式(1)是经典的词项权重计算方法,其中tfij表示词项i在文档j中出现的次数,dfi表示整个文档集合中出现词项i的文档数,N表示整个文档集合的文档数。式(1)包含了词频tf和逆文档频率idf两部分。

结合上述信息检索的词项权重计算方法,本文将特征值的计算分成了词项的权重(term weighting,简称tw)和词项的分布(inverse document frequence,简称idf)两部分,根据已有信息检索模型的得分函数,给出了表1和表2所示的改进后的特征值计算方法。其中dlj表示文档j的长度,ave_dl表示文档集的平均文档长度。

3.2.2 基于入度的词项共现图模型的特征值计算

现有的权重计算方法如TF-IDF和BM25均以词袋模型的形式表示文档,其词项权重的计算都是基于词频。然而,本文通过顶点的入度数确定每个词项的权重。如果指向某个顶点的边数越多,则说明词项的共现次数越多。基于入度的权重计算方法不仅计算简单,而且能更好的捕捉词项与词项之间的关系。已有的工作表明[1-2],采用基于入度的词项权重可以很好的找到文档的中心(重要词项),相应地,在中文观点句识别时,找到图模型中带有观点倾向的词项(即中心)。

表1 词项权重计算方案

表2 词分布计算方案

本文分别构建了基于观点句集和非观点句集的词项共现图模型,模型中边的方向定义有两种:FG和BG。因此,本文计算词项在两个图模型中的权重值时,分别采用以下两种方法。

1)基于FG模型的词项权重称为前向词权重(Forward Term Weighting,简称FTW)。由两部分组成:基于主观句集FG模型上词项的权重ftw(s)和基于非主观句集FG模型上词项的权重ftw(n)。

2)基于BG模型的词项权重称为后向词权重(Backward Term Weighting,简称BTW)。由两部分组成:基于主观句集BG模型上词项的权重btw(s)和基于非主观句集BG模型上词项的权重btw(n)。

在上述构建的词项共现图模型中,我们已经分别计算了词项权重FTW和BTW,得到公式(2)和公式(3)所示的基于图模型的权重计算方法。其中,ftw(i)是词项i在文档集构建FG模型中的权重,btw(i)是词项i在文档集构建BG模型中的权重。

结合基于信息检索的权重计算方法,本文针对FTW和BTW分别给出了八种基于图模型的词项权重计算方案,具体如表3所示。词项分布的计算方案仍采用表2一致的计算方法。

表3 基于图模型的词项权重计算方案

4 实验及结果分析

本节将通过实验验证词项共现图模型在中文观点句识别任务中的有效性,并对实验结果进行详细的分析。

4.1 实验设置

本文采用第三届中文倾向性分析评测①http://www.ir-china.org.cn/所发布的电子产品评论作为语料集,该语料共包括2 000篇电子产品领域的文档,去噪后语料包含观点句5 662条,非观点句9 266条。为了取得平衡的数据,我们采用了随机裁剪的方法,使得观点句和非观点句在数量上相当。同时,使用中国科学院的分词与词性标注软件①http://ictclas.org对语料进行分词预处理,采用LIBSVM②http://www.csie.ntu.edu.tw/~cjlin/libsvm/作为分类器(参数均取默认值),并采用十折交叉验证方法获取实验结果,词项滑动窗口的取值范围为2至6。

为了验证基于词项共现图模型的中文观点句识别方法的有效性,本文将已有的基于信息检索(IRM)的中文观点句识别方法和吕云云等[11]提出的基于BootStrapping的集成分类器(BSM)的中文观点句识别方法作为Baseline。BSM是采用Bootstrapping的方法扩展训练语料,分别训练贝叶斯、支持向量机和最大熵分类器。然后,通过给三个训练好的分类器赋权获得一个集成分类器。此外,本文还将通过设置两个对比实验来验证,在中文观点句识别当中,基于FG模型和基于BG模型的性能。

4.2 实验结果及分析

4.2.1 Baseline实验结果

图2显示了IRM和BSM模型的中文观点句识别性能。在IRM模型中,tw有五种计算方法,idf有三种计算方法,共有15种计算方案,实验参数取值采用已有文献中求得的经验参数值k=1.2和b=0.75。在BSM模型中,语料标注率在0.05和1之间以0.05的步长进行平滑,在标注率分别为0.4和1时,训练的集成分类器的效果达到最好,分别为0.778 6和0.772 4。因此,本文只取bsm0.4和bsm1的实验结果作对比。

图2 Baseline实验结果

图2数据表明:

1)在英文观点句识别中,仅使用二元特征值就可以取得很好的效果,分类精度通常可以达到82.9%,但该方法在中文观点句识别中效果并不好,图2中tw0*idf1的精度只有63.37%,这一实验结果说明了简单的二元特征值计算方法不适合于中文观点句识别任务;

2)在计算特征值时仅考虑词项权重总体识别效果都不太好,其中tw1×idf1、tw2×idf1、tw3× idf1和tw4×idf1的分类精度分别为60.10%、69.37%、58.74%和69.59%,精度均低于70%。相比较而言,仅用词项分布来计算特征值的方法分类效果具有显著提升,识别性能均在77%以上,其中在tw0×idf2和tw0×idf3方案中,精度分别高达到78.01%和77.92%,这一实验结果说明词项在语料中的分布情况对于观点句的识别具有重要的作用。同时,BM25模型(tw5×idf3方法)可以取得更好的识别效果,分类精度达到最高(78.28%)。

3)整体上来说,在中文观点句识别中,IRM模型可以显著提升中文观点句识别效果,甚至可以取得比BSM模型训练的集成分类器更好的分类性能。

4.2.2 基于FG模型的特征值计算

图3显示了窗口大小为3时的FG模型中特征值计算下的中文观点句识别性能。图中实验结果表明:使用基于FG模型的特征值计算方法,分类性能都有较大幅度的提升。在不考虑词项分布的ftw1×idf1、ftw1×idf2、ftw1×idf3和ftw1×idf4方案中,分类性能分别达到了75.98%、66.55、71.68%和 69.98%,与基于信息检索的同等条件下的方案相比,性能都有所提升,这一实验结果充分说明本文构建的FG图模型可以捕捉到更多的观点句和非观点句中词项间的依赖及语法关系,并用于分类器的训练。基于BM25模型的ftw4×idf2方案可以达到最好的性能81.22%,ftw3×idf2、ftw3×idf3的分类性能也都在80%以上。但是,ftw1×idf3和 ftw2×idf3方案与同等条件下的基于信息检索的方案相比,性能会有所降低(仅有73.07%和75.18%),原因在于一些非观点词的共现频率过高,导致分类器引入更多的噪音。

另外,基于FG模型的观点句识别方法也可以获得比基于BSM模型更好的分类性能。

图3 基于FG的特征值计算

4.2.3 基于BG模型的特征值计算

图4显示了窗口大小为3时的BG模型中特征值计算下的中文观点句识别性能。

图4 基于BG的特征值计算

实验结果表明,基于BG模型的分类性能与基于FG的方法的分类性能总体相差不大。分析图3和图4可得,采用ftw3×idf3、ftw4×idf3和btw3× idf3、btw4×idf3方案计算特征值的性能较好,而且也较稳定。其中,最好的模型分类性能是方案bw1× idf3,高达80.24%,比基于FG的方法最好的性能稍差。ftw2×idf1的性能最差,只有66.31%,分析原因是在计算词项权重时用文档集中最大的权重值进行了平滑,导致部分观点词的影响减弱。

通过上述分析可得,基于FG和BG模型采用不同的特征值计算方案,得到的观点句识别性能会有相对较大的浮动,原因在于信息检索模型均以词袋(Bag-Of-Words,简称BOG)的形式表示文档,其特征值计算方案都依赖于词项独立性假设,即并未考虑词项之间的依赖关系。相反,本文是通过构建词项共现关系图来表示每篇文档,因此信息检索中性能较好的特征值计算方法不太适用于本文构建的模型中,同时更加适合中文观点句识别这一任务的特征值计算方案也将作为我们未来的研究工作之一。

4.2.4 窗口大小的选择

图5显示了在FG模型中,ftw4×idf2特征值计算方法在不同的词项滑动窗口下的分类性能。实验表明词项滑动窗口大小与分类精度并不是简单线性关系。例如:在窗口大小为2时,分类精度为80.3161%;在窗口大小为3时,分类精度达到最大81.2169%。该实验结果可以很好的总结汉语表达的语法习惯,即在中文表达观点时,作者倾向于采用三元成分结构。当窗口逐渐增加,分类精度却有逐渐下降,原因在于随着窗口大小的增大,很多非合法语法搭配结构被当作有用的特征来计算词项的FTW和BTW值,即加入了很多噪音特征,从而导致分类精度下降。

图5 FG模型中调整词项滑动窗口大小对性能的影响

5 总结与展望

针对传统的词项间强独立性假设的词袋模型驱动的中文观点句识别方法的不足,本文提出了一种新型的基于词项共现关系的图模型方法。该方法通过构建词项共现关系有向图模型,利用词项与词项之间的共现性和句法关系来描述词项在观点句和非观点句集合中的分布差异。同时,在构建的图模型上,本文采用基于入度的词项权重计算方法计算每个顶点(词项)的权重,并结合基于信息检索的特征值计算方案计算特征向量的特征值。上述研究在基准语料上进行实验,实验表明采用基于词项关系图模型方法后,中文观点句识别准确率相比目前基于词袋的方法得到显著提升。

将来工作主要包括以下两个方面:(1)在跨领域数据集上验证本文提出的模型性能;(2)将本文提出基于词项共现图模型的特征计算方法与目前已有的特征计算方法进行结合,以体现方法的协同性。

[1] Rousseau F,Vazirgiannis M.Graph-of-word and TWIDF:new approach to ad hoc IR[C]//Proceedings of the 22nd ACM International Conference on Information and Knowledge Management.ACM,2013:59-68.

[2] Mihalcea R,Tarau P.TextRank:Bringing order into texts[C]//Proceedings of the 2004Conference on Empirical Methods in Natural Language Processing(EMNLP).2004,4(4):275.

[3] 洪欢,王明文,万剑怡,等.基于迭代方法的多层Markov网络信息检索模型[J].中文信息学报,2013,27(5):122-128.

[4] Pang B,Lee L,Vaithyanathan S.Thumbs up?:sentiment classification using machine learning techniques[C]//Proceedings of the Associate Computational Linguistics 02Conference on Empirical Methods in Natural Language Processing-Volume 10.Association for Computational Linguistics,2002:79-86.

[5] Dave K,Lawrence S,Pennock D M.Mining the peanut gallery:Opinion extraction and semantic classification of product reviews[C]//Proceedings of the 12th International Conference on World Wide Web.ACM,2003:519-528.

[6] Pang B,Lee L.A sentimental education:Sentiment analysis using subjectivity summarization based on minimum cuts[C]//Proceedings of the 42nd Annual Meeting on Association for Computational Linguistics.Association for Computational Linguistics,2004:271.

[7] 徐军,丁宇新,王晓龙.使用机器学习方法进行新闻的情感自动分类[J].中文信息学报,2007,21(6):95-100.

[8] 谢丽星,周明,孙茂松.基于层次结构的多策略中文微博情感分析和特征抽取[J].中文信息学报,2012,26(1):73-83.

[9] Prabowo R,Thelwall M.Sentiment analysis:A combined approach[J].Journal of Informetrics,2009,3(2):143-157.

[10] Qiu L,Zhang W,Hu C,et al.Selc:a self-supervised model for sentiment classification[C]//Proceedings of the 18th ACM Conference on Information and Knowledge Management.ACM,2009:929-936.

[11] 徐睿峰,王亚伟,徐军,等.基于多知识源融合和多分类器表决的中文观点分析[C]//第三届中文倾向性分析评测论文集,2011:77-87.

[12] 吕云云,李旸,王素格.基于BootStrapping的集成分类器的中文观点句识别方法[J].中文信息学报,2013,27(5):84-92.

[13] Martineau J,Finin T.Delta TFIDF:An Improved Feature Space for Sentiment Analysis[C]//Proceedings of the 3rd International Conference on Weblogs and Social Media(ICWSM).2009:258-261.

[14] Paltoglou G,Thelwall M.A study of information retrieval weighting schemes for sentiment analysis[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics.Association for Computational Linguistics,2010:1386-1395.

[15] Deng Z H,Luo K H,Yu H L.A study of supervised term weighting scheme for sentiment analysis[J].Expert Systems with Applications,2014,41(7):3506-3513.

[16] Riloff E,Wiebe J.Learning extraction patterns for subjective expressions[C]//Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing(EMNLP).Association for Computational Linguistics,2003:105-112.

[17] Kim S M,Hovy E.Determining the sentiment of opinions[C]//Proceedings of the 20th International Conference on Computational Linguistics.Association for Computational Linguistics,2004:1367.

猜你喜欢

计算方法特征值分类器
浮力计算方法汇集
一类内部具有不连续性的不定Strum-Liouville算子的非实特征值问题
一类带强制位势的p-Laplace特征值问题
极限的计算方法研究
单圈图关联矩阵的特征值
迭代方法计算矩阵特征值
基于特征选择的SVM选择性集成学习方法
基于深度优先随机森林分类器的目标检测
基于差异性测度的遥感自适应分类器选择
不同应变率比值计算方法在甲状腺恶性肿瘤诊断中的应用