在线评论情感分析研究综述
2018-03-10谢法举刘臣唐莉
谢法举+刘臣+唐莉
摘 要:从在线评论情感极性以及情感强度两方面考虑,与此同时,对在线评论情感极性从粒度即细粒度和粗粒度两方面进行情感分类。对在线评论情感进行分析,有利于消费者的购买决策,也有利于商家制定营销战略。讨论了情感分析的现有不足以及面临的挑战。
关键词:情感分析;情感强度;细粒度;粗粒度;情感极性
DOIDOI:10.11907/rjdk.173102
中图分类号:TP3-05
文献标识码:A 文章编号文章编号:1672-7800(2018)002-0001-04
1 在线文本情感分析概述
文本情感分析又称观点挖掘,它是依据计算机等先进技术对有关新闻资料、社会媒体评论的主观性、观点、情绪以及极性的提取、分析、处理、归纳,对文本的情感倾向性作出预知判断的一种技术。例如:这款手机外观很漂亮。该句子表达的是积极性观点。在句子中,“外观”作为特征词,对应的情感词为“漂亮”,那么“外观”和“漂亮”是一对特征观点对,从观点词中可以看出该句子的情感属于积极情感。文本情感分析包括文本情感极性分析和文本情感极性强度分析。情感极性分析主要目的是为了识别主观文本情感,文本情感强度分析主要是为了识别句子所表达情感的强烈程度。
1.1 文本情感分析系统的基本框架
图1描述了文本情感分析的基本框架:①从网络上抓取相关评论;②对相关评论进行预处理;③对处理后的评论进行特征抽取;④特征处理以及特征观点对识别;⑤进行情感判断。
1.2 文本情感分析的主要研究方法
常用的文本情感分析方法见表1。人的情感总是复杂多变的,在学术界对于情感分类目前还没有统一的标准。虽然前人的划分没有统一标准,但是前人的工作还是给出了许多指导性帮助。
Hatzivassiloglou等[1]从语料库华尔街日报中挖掘大量形容词性的评价词语。Tong等[2]通过人工抽取与影评相关的词汇(great acting、uneven editing)进行情感极性(positive或negative)标记后建立专门的情感词典。Katrina等[3]使用了由Andrew提出的最基本的情感本体(该本体定义了38个情感类别),在此基础上构造出更复杂的情感组合。Riloff等[4]通过人工选取种子评价词语与规则模块,使用迭代的方法对名词性评价词语进行提取。LIU B等[5]开发了一种将对产品各部分用户意见可视化显示出来的系统,使产品之间比较时,各部分优劣一目了然,极大方便用户选购。薛丽敏等[6]提出中文文本情感倾向性五元模型,即情感倾向性观点持有者、倾向性来源、倾向性指定、倾向性立场以及倾向性种类5个方面描述情感倾向性的概念。在一定条件下提高情感倾向性判断的精度。文本情感极性分析可以从文本粒度分析即细粒度和粗粒度两方面进行。
2 细粒度情感分析
2.1 提取相关属性
一个产品具备多个不同的属性,属性是指产品某方面的一些功能或者性质,分为显性属性和隐性属性。显性属性是指在产品评论中能够直接获取与产品相关的功能或者性能。隐性属性是指需要根据上下文判别,其特征不直接出现在文本中。
提取产品属性可以分为两种方法:人工定义方法与自动提取方法(见表2)。人工定义产品属性,需要产品领域的专家参与,因此可移植性较差。自动提取的方法结构简单便于实现,因此具备良好的可移植性,自动提取产品属性不需要进行大量的标注语料库作为训练集,因此有较好适应性,可用于其它产品。
关于手机的属性与评价短语词语抽取结果,在试验中笔者发现用户关注的属性主要集中在“质量”、“屏幕”、“价格”、“性价比”、“电池”等几个主要特征层面。表3为关于手机的属性与评价短语。
2.2 情感词提取
情感词是指一句话中带有情感倾向的词语,对于情感词提取也有两种方法:人工定义方法与自动提取方法(见表4)。
3 粗粒度情感分析
3.1 基于自然语言处理(NLP)方法
基于自然语言处理(NLP)的方法,通常采用空间向量表示文本,然后采用机器学习方法识别或者判断情感类别。这种方法大致流程为:①首先对于文档进行预处理;②选择相应的特征;③对特征进行降维处理;④计算相应特征的权重;⑤采用分类器处理;⑥最终得到相应的情感输出。
3.1.1 相应文档处理
根据标点符号对评论语料进行分句,摒弃一些使用不规范甚至根本不使用的标点符号。对相应文档进行分词处理,常用的中文分词工具有jieba分词(我/r来到/v北京/ns 清华大学/nt);中科院的ictclas4j分词(中国科学院/n 计算/n 技术/n 研究所/n 在/c 多年/m 研究/n 基础/a 上/f ,/w 耗时/v 一/d 年/a 研制/v 出/q 了/u ICTCLAS/nx 汉语/n 词法/n 分析/v 系统/a)等,利用POS標签,然后根据训练样本集生成特征序列,根据特征选项对训练样本集和测试样本集中的文档进行赋值生成相应的向量。基于中科院ictclas4j分词之后,根据每个词的词性构建关于特征词和观点词的共生矩阵。
3.1.2 特征选择
特征选择对于情感判别有着非常重要的作用,因为依靠特征的选择在一定程度上就可以体现出文档的真实信息,能够准确地用来识别文档的好坏。比如“华为手机外观很漂亮”,对此选择“外观”作为特征,而与“外观”对应的情感词就是“漂亮”。该特征是显性特征,因为特征直接出现在该评论中。对于特征的选择一般选取名词或者名词短语,而对于情感词的选择一般选择形容词、副词能表达出情感的词。Zhen Hai[10]提出共生矩阵来提取特征,基于最小支持度和最小自信度识别隐性特征。图4为Zhen Hai对隐性特征提取方式的构建示意图。endprint
3.1.3 特征降维处理
特征项降维常用的方法有:互信息法(Mutual Information,MI)、文档频率法(Document Frequency,DF)、统计量法(Chi-square Statistic,CHI)、信息增益法(Information Gain,IG)、期望交叉熵法(Expected Cross Entropy,ECE)等。不同的降维方法对分类效果会产生不同的影响。
唐慧丰等[16]采用了特征项降维的前4种方法,依据不同的特征数量和不同规模的训练集进行实验。实验结果表明信息增益法较好,原因是其既考虑了类别信息又考虑了低频词的影响。
总之,这些方法的大致思想基本一致:针对某一特征计算出一种度量值,根据度量值设定相应的阈值,剔除那些小于该阈值的特征值,未被剔除的部分就被看作有效特征。
3.1.4 相关权重计算
特征权重的计算方法通常包括:词频逆文档频(TF-IDF)、布尔权重、倒排文档频度(IDF)、绝对词频(TF)等常用方法。孙挺[17]采用词频逆文档频(TF-IDF),综合考虑特征频率、文档频率、特征类别3方面因素,最终有效改善了分類性能。缪建明[18]采用改善的TF*IDF*CIV方法,考虑语义概念信息量CIV,最后正确率以及准确率都有很大提高。
对于布尔权重,主要应用布尔函数:
式(1)中,tfj(e)表示第j个特征词在文档e中出现的次数。如果特征词出现在文档中,那么W为1;如果特征词在文档中不出现,那么W为0。
倒排文档频率(IDF)含义为:如果包含某个特征词的文本数越少,那么该特征词代表某类文档的能力越强。相应,权重就越大。其计算公式如下:
式(2)中,L为常数,通常根据实验来确定。N为总文本数,nj为出现特征词的文本数。
3.1.5 分类器选择
对于文本分类常用的分类器有支持向量机(Support Vector Machines,SVM),朴素贝叶斯(Nave Bayes,NB)、最大熵(Maximum Entropy,ME)等多种方法。
3.1.6 最终情感输出
Socher Richard[19]提出基于自然语言的句子情感输出,从(--,-,0,+,++)分为5个等级,在解析树的每个节点上,在句子中捕获否定词和它的作用域。图5为基于自然语言处理一句话的句子情感输出结果,可以看出句子中每个词的情感。
3.2 基于语义方法
该方法主要是依据词语的感情色彩判断文本的情感。例如词语或者词组的褒贬性。点互信息(PMI)就是常用的一种方式,Church等[20]认为两个词之间的点互信息为:
Turney等[21] 提出基于情感词组的SO-PMI方法,这里的情感倾向如下:(ω)=PMI(ω,positive)-PMI(ω,negative),这样就确定了每个词组的情感倾向。
4 文本情感极性强度分析
4.1 文本情感极性强度分析目的
文本情感极性强度分析主要是判断主观文本情感极性强度,一般分为5大类:强烈贬义、一般贬义、客观对待、一般褒扬、强烈褒扬,即使是对于同一事物所表达的预期强烈程度也有所不同,例如:“中国人喜爱文学”和“中国人热爱文学”表达出来的情感也是有所不同的,热爱的情感程度超过喜爱的情感程度。表5为关于句子星评示例以及情感强度。
4.2 情感强度计算
情感强度级别S={s1,s2,…,sn},情感强度集合Ai,Ai由m个相互独立的情感词oj构成,Ai(oj)为情感词oj出现在情感强度级别si中的可能性,则:
如图6两款手机的平均情感强度,不仅能够直接帮助消费者快速作出购买决策,还能够帮助商家有效了解市场的竞争对手,及时调整市场布局。
5 目前文本情感分析存在的问题
近些年来,越来越多的研究机构或学者将情感分析应用于现实生活中,开发出许多实用的意见挖掘系统,却也存在一些问题:①缺少相应的实验语料,整个工作流程还不成熟,而且语料库的规模有限制;②目前文本情感分析的主要工作还局限于利用观点词等信息判别情感极性,很少去考虑语境环境;③文本识别太随意化、口语化、网络化等。比如“华为手机太zan了!”,这里“zan”是情感倾向的关键,因此这会给情感判别增加较大难度;④在识别情感词的同时很少有人考虑情感词附近的程度副词,这会减弱情感强度;⑤有些褒义词当贬义词使用、讽刺以及正话反说,如“你这人太有才了”等,看着是褒义色彩,表面却是贬义。
参考文献:
[1] HATZIVASSILOGLOU,VASILEIOS,KATHLEEN MCKEOWN. Predicting the semantic orientation of adjectives[C]. In 35th ACL/8th EACL,1997:174-181.
[2] TONG, R. An operational system for detecting and tracking opinions in on-line discussion[C]. SIGIR 2001 Workshop on Operational Text Classification,2001.
[3] KATRINA TRIEZENBERG. The ontology of emotion [D]. USA:Purdue University,2005.
[4] RILOFFE,WIEEB J.Learning extraction patterns for subjective expression[J].Proceedings of Emnlp,2003(3):105-112.endprint
[5] LIU B,HUM,CHENG J.Opinion observer: analyzing and comparing opinions on the Web [C].Proceedings of the 14th International Conference on World Wide Web:2005:342-351.
[6] 薛丽敏,李殿伟,肖斌.中文文本情感倾向性五元模型研究[J].通信技术,2011,44(7):130-132.
[7] LI ZHUANG, FENG JING, ZHU XIAO-YAN. Movie review mining and summarization[C]. NY, USA: Proceedings of the 15th ACM International Conference on Information and Knowledge Management,2006.
[8] 姚天昉,聂青阳,李建超.一个用于汉语汽车评论的意见挖掘系统[C].北京:中国中文信息学会二十五周年学术会议,2006.
[9] SU Q, XIANG K, WANG H, et al. Using pointwise mutual information to identify implicit features in customer reviews[M]. Berlin Heidelberg : Springer-Verlag,2006.
[10] HAIZHEN, KUIYUCHANG, JUNG-JAEKIM. Implicit feature identication via co-occurrence association rule mining[C]. In Computational Linguistics and Intelligent Text Processing 12th International Conference, CICLing,Tokyo,2011.
[11] POPESCU A M, ETZIONI O. Extracting product features and opinions from reviews [C].PA,USA:Human Language Technology Conference and Conference on Empirical Methods in Natural Language Processing, East Stroudsburg,2005.
[12] XU J,ZHENG X,DING W.Personalized recommendation based on reviews and ratings alleviating the spasity problem of collaborative filtering[C].2012 IEEE Ninth International Conference on E-Business Engineering (ICEBE),2012:9-16.
[13] HU M Q, LIU B. Mining opinion features in customer reviews[C].AAAI'04 Proceedings of the 19th National Conference on Artifical Intelligence,2004:755-760.
[14] LIU DEXI, NIE JIANYUN, ZHANG JING, et al. Extracting sentimental lexicons from Chinese microblog: a classification method using N-Gram features[J].Journal of Chinese Information Processing,2016,30(4):193-205.
[15] CHEN ZY, LIU B. Mining topics in documents: standing on the shoulders of big data[C]. New York: the 20th Intl Conf on Knowledge Discovery and Data Mining,2014.
[16] 唐慧豐,谭松波,程学旗.基于监督学习的中文情感分类技术比较研究[J].中文信息学报,2007,21(6):55-94.
[17] 孙挺,耿国华,周明全.一种有效的特征权重计算方法[J].郑州大学学报,2008,40(4):18-21.
[18] 缪建明,张全.基于概念信息量的特征权重计算方法研究[J].中国科学院声学研究所青年学术交流会,2012:256-260.
[19] SOCHER, RICHARD, PERELYGIN,et al. Recursive deep models for semantic compositionality over a sentiment Treebank[C]. In Conference on Empirical Methods in Natural Language Processing,2013:1631-1642.
[20] P D TURNEY. 2001. Mining the web for synonyms: PMI-IR versus LSA on TOEFL[C].Freiburg: the Twelfth European Conference on Machine Learning,2001.
[21] CHURCH, K W, HANKS, P. Word association norms, mutual information and lexicography[C]. Proceedings of the 26th Annual Conference of the Association for Computational Linguistics,1989:76-83.endprint