APP下载

基于多通道双向长短期记忆网络的情感分析

2019-12-30李卫疆

中文信息学报 2019年12期
关键词:样例特征向量向量

李卫疆,漆 芳

(昆明理工大学 信息工程与自动化学院,云南 昆明 650500)

0 引言

随着互联网技术的不断发展,越来越多的用户在网上表达自己的观点和情感。如何高效快速的分析这些带有情感的观点和言论,已得到越来越多研究人员的关注。

传统的情感分类方法主要包括基于词典和基于机器学习。基于词典方法的核心模式是“词典+规则”,即以情感词典作为判断评论情感极性的主要依据[1],依赖于情感词典和判断规则的质量,需要大量的人工干预;基于机器学习方法将情感分析看作一个分类问题,该方法是对训练数据进行统计学习来构建一个分类模型,用来对未知标签的测试数据进行分类预测[2-3]。这类方法的多数模型的性能依赖于标注数据的质量,需要耗费大量的人工成本。

近年来,随着深度学习技术的发展,基于神经网络的方法成为了主流,被广泛地应用于自然语言处理(NLP)领域中。卷积神经网络(convolution neural networks,CNN)[4]和循环神经网络(Recurrent Neural Network,RNN)[5]是目前在情感分析任务中具有代表性的深度学习模型。其中CNN通过对句子的所有词的词向量使用不同大小的滑动窗口进行卷积操作,提取局部相邻词之间的高维度特征。与CNN相比,RNN具有上下文语义捕捉能力,能够将记忆内容应用到当前情景下,并且支持变长样本的输入。文献[6]中,作者提出使用长短期记忆网络(long short term memory,LSTM),是RNN的变种,考虑了词序列之间顺序依赖关系,能够很好地解决长时距离依赖问题。

在情感分析任务中,相对于传统的机器学习方法,深度学习能够自动捕捉从数据本身到高层特征更为复杂的语义映射,特征获取无需大量人工干预。在性能上也体现了相比于以往方法的优越性。虽然这些神经网络模型取得了巨大的成功,但也存在着一些缺陷。首先,忽略了情感分析任务中现有的语言知识和情感资源,不能充分的利用这些情感特征信息;其次,语言知识,如情感词汇、否定词 (如不,从不)、程度副词(非常,很),在神经网络模型中未被充分使用。陈钊等[7]提出了一种利用情感词典中的词条对文本中词语进行抽象表示生成的特征加入卷积神经网络(WFCNN);这一类方法过于依赖于情感词典,需要大量的人工整理情感词典,无法充分利用情感分析任务中特有的语言知识和情感特征信息。而且,该方法使用的卷积神经网络的滤波器的词容量有限,不能捕捉到句子中距离长的信息,从而无法获得句子中非相邻词之间的长距离语义关系。Qiao Qian等[8]提出使用句级注释训练的简单LSTM模型,并对情感词汇、否定词和强度词的语言角色(作用)进行建模。虽然该模型能够捕捉到非相邻词之间的语义关系,但是该方法需要人工来建立强度正则化器,过于依赖正则化句级注释。还有一些非常依赖解析树结构和昂贵的短语级注释的模型,如Tree-LSTM[9],当仅使用句子级进行训练时,其性能会显著下降。

针对上述问题,本文提出一种基于多通道双向长短期记忆的文本情感分析方法,该方法首先通过对文本中的词语进行词性标注,并进行向量化操作,映射成一个词性特征向量,其中重点对特殊情感词进行标注。同时,对文本进行句法依存分析,生成依存特征;对每个词语的位置,通过向量化映射成一个位置特征向量。有效的将文本的情感特征信息充分的加入模型中。从而,更加准确地的突出词语的语义程度。其次,将输入文本句子中的词向量和词性特征向量、位置特征向量和依存特征向量三者进行两两组合,生成不同特征的通道输入,再将每个通道输入学习一个Bi-LSTM;让模型从不同的角度去学习句子中的情感特征信息,挖掘句子中不同方面的隐藏信息。

本文在中文倾向性分析评测COAE2014、英文电影评论MR和斯坦福情绪树库(SST)三个数据集上进行了实验,并和多种基准模型进行了对比。实验结果显示本文提出的Multi-Bi-LSTM在三个数据集上取得了比朴素贝叶斯、支持向量机、RNN、Bi-LSTM等一些基准模型更好的性能。综上,本文贡献如下:

(1) 提出了一种Multi-Bi-LSTM模型用于情感分析任务,该模型对情感分析任务中现有的语言知识和情感资源进行建模,形成不同的特征通道。

(2) 使用三个Bi-LSTM对不同的特征通道去学习不同角度的情感信息特征,挖掘句子中更多的隐藏信息。与以前依赖情感词典、人工建立情感强度正则化器和解析结构以及昂贵的短语级注释不同,本文提出的模型简单而有效。

(3) 在中英文三个数据集上验证了本文提出的Multi-Bi-LSTM模型在情感分析任务中的有效性。

1 相关工作

情感分析是自然语言处理领域中的一个任务。在过去的研究中,基于机器学习方法得到很多学者的重点关注,使用最多的经典分类模型有朴素贝叶斯(NB)、支持向量机(SVM)和最大熵(ME)等。将文本特征映射为多维特征向量送入这些模型中进行机器学习训练,学习文本的特征信息。很多研究工作者尝试设计更好的工程特征来提高情感分析的性能。黄发良[10]将情感表情符号与微博用户性格情绪特征纳入到图模型LDA中实现微博主题与情感的同步推导。这些模型是基于词袋模型,文本中每个词语都是独立的不依赖于其他词语,忽略了词序和语法,无法获取到文本中隐藏的语义信息。

自从2006年无监督逐层学习技术的提出,深度学习开始成为机器学习领域的热门研究方向。Kim[4]使用卷积神经网络对电影评论进行情感分类,实验结果表明卷积神经网络的分类性能优于递归神经网络。刘龙飞等[11]提出结合不同粒度的卷积神经网络模型,将词级别和字级别的文本表示作为卷积神经网络的输入来学习句子的特征信息。结果取得了比传统的SVM方法更好的效果。陈钊等[7]提出了一种结合情感词典和卷积神经网络分类方法,利用情感词典中的词条对文本中的词语进行抽象化表示,来获取更多的语义信息。在中文COAE2014数据集上取得了主流的卷积神经网络以及朴素贝叶斯、支持向量机更好的性能,但这类方法过于依赖与情感词典,且无法获取到距离长词的信息,忽略了非相邻词之间的语义关系。

一些研究者提出了序列模型如RNN来解决情感分类问题,Socher等[12-14]提出了递归神经网络RNN分类模型,RNN分类模型通过递归计算来获取句子语义,学习变长语句的特征用来解决情感分类问题中语义合成等任务。传统RNN存在的优化问题很早就被研究者所知,并提出了长短期记忆网络LSTM[6]。将评论建模成词序列来解决情感分类问题,考虑了词序列之间顺序依赖关系,能够捕捉的上下文语义信息。Jin Wang[15]提出一种区域CNN-LSTM模型,该模型由两部分组成: 区域CNN和LSTM,用于预测文本的valence-arousal(VA)空间(VA是指在情感分析中从维度上识别多维空间中的连续数值)。该方法所提出区域CNN使用单个句子作为区域,将输入文本划分成若干区域,以便可以提取每个区域中有用的情感信息。在使用LSTM进行VA预测时,这些区域信息将按区域顺序进行集合。通过结合区域CNN和LSTM,可以在预测过程中考虑句子内的局部(区域)信息和句子之间的长距离依赖性。实验结果表明,该方法优于先前研究中提出的基于词典,基于回归和基于NN的方法。Qiao Liu[16]提出了一种新颖的基于内容注意的方面情感分类模型,具有两个关注增强机制: 句子内容注意机制能够从全局角度获取关于给定方面的重要信息,而情景注意机制是负责同时考虑单词及其相关性的顺序,将它们嵌入到一系列定制的记忆中。实验结果表明,该模型胜过当时最先进的技术,其中提出的机制起着关键作用。Nallapati等[17]在抽象文本摘要任务中提到了将语言学特征转化为多维度向量的方法。把词性、命名实体标签,单词的TF和IDF等这些额外特征全部与单词进行连接,使每个单词具有多个维度的意义。Qiao Qian[8]提出语言规则化的LSTM,用句级注释训练的简单模型,并对情感词汇、否定词和强度词等语言知识进行建模。

本文提出的Multi-Bi-LSTM与文献[7]使用的利用情感词典中的词条对文本中词语进行抽象表示生成的二取值特征不同之处在于,本文使用连续值向量的形式来表示词的特征,且不依赖情感词典;同时,本文使用的Bi-LSTM神经网络方法,能够解决CNN的固定窗口问题,能够捕捉到评论词与词之间的长依赖关系。相比文献[17]所使用的将语言学特征转化为多维度向量的方法,文本采用了以词为基础和词性、位置和句法依存分别进行两两组合,形成三个不同的特征向量通道输入,在不同特征向量通道输入上,让模型从不同角度去学习句子中不同方面的情感特征信息,挖掘句子中不同角度的隐藏信息。与文献[8]提出的语言规则化的LSTM相比,Multi-Bi-LSTM不需要大量的人工来建立强度正则化器。也不与Tree-LSTM模型[9]一样,需要依赖解析树结构和昂贵的短语级注释。

2 情感分析模型

本文通过在Bi-LSTM神经网络输入层构建多个通道,来解决如何更加充分地学习利用文本情感分析任务中的特有的情感资源信息。从而提高情感分析性能。本文提出的多通道双向长短期记忆神经网络(Multi-Bi-LSTM)整体框架如图1所示,是一个从左至右的多层神经网络结构,主要由4 部分组成,从左至右依次为输入层,多通道层,Bi-LSTM layer和情感输出层。

2.1 输入层

输入层是Multi-Bi-LSTM模型的输入层,是由整个数据集中的词向量、词性特征向量、位置值向量和依存句法向量构成。其中,本文将输入的样本最大步长设置为maxlen,对于长度小于maxlen的输入,在其末以“0”填充,对于超出maxlen的样本,直接截取前maxlen。

(1) 词向量

在神经网络中,是通过接受文本向量化输入来学习句子特征信息的。在文本分类任务中,每个句子中的词隐藏着重要的情感特征信息。文本将句子以词为单位形成一个词序列。将每个词映射为一个多维连续值的向量。如: 对于长度为n(1≤n≤maxlen)的句子s={w1,w2…wn},其中每个wi为句子s中第i个词语。存在一个词向量矩阵:W∈Rd*|v|,|v|是词表大小,d是词向量的维度。每个wi映射为一个多维连续值的词向量ei,使用这个词向量矩阵,可以把句子中的每个词转换成词向量表示如式(1)所示。

图1 Multi-Bi-LSTM网络模型结构图

其中,vi是大小为|v|的one-hot向量,在对应的维度取值为1,其它位置全为0。通过将句子序列中的词向量拼接起来,就得到了整个句子序列的词向量矩阵表示如式(2)所示。

其中,ei∈Rd,⊕为拼接操作。

(2) 词性特征向量

本文利用HowNet(1)http://www.keenage.com/html/c_index.html情感集合,对输入的句子进行词性标注。通过对句子的词性标注,可以让模型学习对情感分类有重要影响的词语,其中重点对特殊的词进行标注,如表1所示。本模型中重点特殊情感词包括: 程度副词(如: 非常,很),正面/负面评价词、正面/负面情感词和否定词(如: 不,从不)对于标注好的词性,通过向 量化操作,映射成一个多维的连续值向量,与词向量操作一样。使ti∈Rm,其中ti为第i个词性特征向量,m是词性向量的维度。对于长度为n的句子s的词性特征向量表示如式(3)所示。

表1 词性标注

(3) 位置值向量

在情感任务中,词语之间的位置往往也隐藏着很重要的信息。同一个词语出现在不同的位置,可能表达着不同的情感信息,如式(4)所示。

其中,pi为句子s中第i个词的位置值,ti!=0为第i个词含有特殊的词性,i为词在句子s中的位置,maxlen为本文输入的最大的步长,len(s)为句子s的长度(len(s)=n)。本文将每一个位置值映射成一个多维的连续值向量pi∈Rl,其中pi为第i个位置特征向量,l是位置特征向量的维度。对于长度为n的句子s的词性特征向量表示如式(5)所示。

(4) 依存句法向量

此外,本文对输入的句子进行了依存句法分析,通过对输入的句子进行句法分析,确定句子的句法结构和句子中词汇之间的依存关系。可以让模型在更大程度上学习情感分析任务中现有的语言知识,挖掘更多的隐藏情感信息。依存句法分析是通过分析语言单位内成分之间的依存关系揭示其句法结构,将每一个句子的句法特征映射成一个多维连续值向量parseri∈Rp,其中parseri为句子s中第i个词的句法特征,p是句法特征向量的维度。对于长度为n的句子s的句法特征向量表示如式(6)所示。

2.2 多通道层

为了让模型更加充分的学习到语言知识和隐藏的情感信息。本文将以词特征为主体与词性特征,位置特征和依存句法三个向量,进行不同的组合形成3个通道作为网络模型的输入,为了让模型简单化,本文在实验中使用一种简单拼接操作,如式(7)~式(9)所示。

2.3 多通道双向长短期记忆网络

2.3.1 长短期记忆网络

长短期记忆网络(long short term memory,LSTM)是对递归神经网络(RNN)的改进,被广泛用于文本处理。在LSTM[6]中,隐藏状态ht和存储器单元ct是上一个单元的隐藏状态ht-1和存储器单元ct-1和输入向量xt的函数。每个位置(ht)的隐藏状态只考虑前向上下文,而不考虑后向上下文。计算如式(10)所示。

2.3.2 多通道双向长短期记忆网络

在文本中,使用基于多通道双向长短期记忆网络(Multi-Bi-LSTM),根据3.2形成的三个通道输入。该网络在训练过程中分别使用Bi-LSTM[18]从这三个通道输入来学习特征信息。同时用两个LSTM沿着序列的两个方向(前向和后向)进行建模。前向和后向LSTM计算如式(11)、式(12)所示。

图通道Bi-LSTM结构图

2.4 情感分类输出层

接着,将三个Bi-LSTM网络中隐藏层输出H分别使用文献[19]提出的层归一化(layer normalization)来计算隐藏层中神经元的求和输入的均差和方差。一个层中的所有隐藏单元共享同样的归一化项μ和σ,层归一化计算如式(13)~式(15)所示。

其中,U为隐藏神经单元个数,g和b为待更新的偏差和增益参数,⊙为两个向量之间的元素乘法。

将经过层归一化提取得到的三个不同的情感特征的最重要信息h进入Merge层,通过⊕得到向量x,本实验中该层使用tanh作为激励函数,如式(16)所示。

在模型中,将上一层的输出作为全连接的输入,通过softmax输出层,对最后的分数进行归一化,可以得到分类结果,如式(17)所示。

其中,x为上一层输出,wc为权重矩阵,bc为偏置。在模型训练的过程中,本文使用交叉熵作为损失函数,且在模型参数上面使用权重衰减(weight decay)来对参数进行正则化,损失函数,如式(18)所示。

其中,D为训练数据集大小,C为数据的类别数,p为预测类别,y为实际类别,λ||θ||2为正则项,λ为正则化系数,θ为模型中所有参数。本文中使用时序反向传播算法(back propagation)来对网络参数进行更新。

3 实验

本文在中文观点倾向性分析评测(Chinese opinion analysis evaluation,COAE2014)任务4、英文电影评论(movie reviews,MR)(2)http://www.cs.cornell.edu/people/pabo/movie-review-data/和斯坦福情绪树库(stanford sentiment treebank,SST)(3)https://nlp.stanford.edu/sentiment/index.html三个数据集上进行实验。从COAE数据集中标注6 000条带有极性的数据,其中正面情绪3 022条,负面情绪2 978条。MR数据集包含了从电影评论网站上采集到的电影评论数据,每个样本是一个句子,注明了其源评论的情感类别,有5 331个正面和5 331个负面处理句子。SST数据集中句子和短语一共有239 231条,是由斯坦福解析器[20]在11 855个句子的解析树中解析的227 376个短语级的细粒情感分类。其中情感标签集合为{0,1,2,3,4},分别对应于“非常消极”“消极”“中立”“积极”“非常积极”等五类,本文分别在SST句子级(Sent.-level)和基于短语级注释的句子级(Phrase-level)上进行训练,最后使用句子级中的测试数据对这两个训练分别进行测试。其中,在整理Train/Dev./Test时,和原本的数据(8 544/1 101/2 210)条,存在一些差别,Train少了100条,Dev.少了8条,Test少了10条;另外,去掉了Phrase-level里面一些特殊字符8条数据。详细的数据统计如表2所示。

表2 MR 和COAE两个数据集的相关信息

3.1 数据预处理与参数设置

本文使用哈工大的语言技术平台LTP工具(4)https://ltp.readthedocs.io/zh_CN/latest/begin.html对表2中文COAE实验数据进行分词,词性标注和依存句法分析。使用预训练好的百度百科中文特征向量(5)https://github.com/Embedding/Chinese-Word-Vectors,对词向量和词性特征向量进行训练。使用Stanford CoreNLP工具(6)https://nlp.stanford.edu/software/corenlp-backup-download.html对表2英文MR和SST实验数据进行分词,词性标注和依存句法分析。词向量采用Pennington等人[21]提出的Glove(7)http://nlp.stanford.edu/projects/glove词向量来初始化,其中每个词向量为300维,词典大小为1.9MB。对三个实验数据集中,未登录词使用均匀分布U(-0.05,0.05)来随机初始化。训练过程采用Duchi[22]提出的Adagrad方法来更新模型参数,本文选择在测试数据集上表现最佳的结果作为最终表现。模型的参数设置如表3所示。

表3 三个数据集的最佳超参数设置

在整个实验中,词向量维度为300维,词性特征为30维,位置特征为25维,依存句法特征为25维。

3.2 实验结果与分析

将本文提出的模型和文献[4, 6-9]提出的方法在表2所示的数据集上进行对比实验。验证本文提出的方法的有效性,如表4所示,介绍如下:

(1) NBSVM: 在本文实验中使用bi-gram作为特征的朴素贝叶斯SVM模型。

(2) CNN: 文献[4]提出的卷积神经网络,是通过卷积和合并操作生成句子表示。

(3) RNN/RNTN: 文献[12]提出的循环神经网络,文献[14]提出的递归张量神经网络(RNTN)使用张量来建模子节点向量的不同维度之间的相关性。

(4) LSTM/Bi-LSTM: 文献[6]提出的长短期记忆网络和网络的双向变体。

(5) Tree-LSTM: 文献[9]提出的树状结构的长期短期记忆模型,将记忆细胞和门引入树形结构的神经网络。

(6) WFCNN: 文献[7]提出的结合情感序列的卷积神经网络模型,在本文实验中,使用Glove词向量来初始化。

(7) LR-LSTM/LR-Bi-LSTM: 文献[8]提出的语言规则化的LSTM。

(8) Multi-LSTM/Multi-Bi-LSTM: 本文提出来的多通道LSTM和多通道双向LSTM网络。

表4 不同模型的情感分类性能对比

注: 标有*的结果将从文献[8-9, 14, 23]中引用。

首先,从表4结果可以看出,本文提出的Multi-LSTM 和Muti-Bi-LSTM模型在COAE和MR数据集上,都取得了比传统方法NBSVM更好的分类效果,这表明神经网络模型在情感分析任务上比传统方法有更好的效果。同时,本文提出的模型分类效果在三个数据集上,也远远高于CNN、RNN、RNTN和LSTM这些只使用了词向量训练的模型。说明本文提出的对现有语言知识和情感资源进行建模,生成不同特征通道的方法在情感分析任务中的有效性。

其次,在MR数据集上,对比文献[8]提出来的LR-LSTM、LR-Bi-LSTM模型的81.5%、82.1%和文献[9]提出来的Tree-LSTM模型的80.7%可以看出,本文提出的Multi-Bi-LSTM模型的81.9%,比Tree-LSTM模型提高了1.2%。比LR-Bi-LSTM模型效果稍微差一点(0.2%)。但是,LR-Bi-LSTM模型过于依赖情感词典,另外还需要使用大量的人工来建立强度正则化器,而本文提出的Multi-Bi-LSTM模型则不需要这样情感词典以及强度正则化器。说明了本文模型的简单性。在SST数据集中,本文模型在Phrase-level上的51.4%比LR-Bi-LSTM模型的50.6%提高了0.8%,比Tree-LSTM模型的51.0%提高了0.4%,在Sent.-level上本文模型分别提高了0.9%和1.4%。除此之外,从表4中还可以看出,Tree-LSTM模型严重依赖于短语级注释,当仅使用句子级进行训练时,其性能会下降2.9%(性能从51.0%下降到48.1%),而本文提出的模型不依赖于解析树。因此,本文模型效率更高。在中文COAE数据集上,与文献[7]提出来的WFCNN模型的88.6%相比,本文提出的Multi-Bi-LSTM模型表现的稍差一点(0.2%),而在F1值上,本文模型提高了0.4%。另外,在SST数据集中,对比WFCNN模型的49.6%、48.0%,本文模型提高了1.8%、1.5%。这说明本文提出的方法充分利用了情感分析任务中的语言知识和情感信息,取得了比以往模型更好的分类效果。

最后,与文献[6]提出的基本Bi-LSTM模型相比,本文提出的Multi-Bi-LSTM模型在三个数据集上的分类效果最高提升了3.4%。可见在情感分析任务中,充分利用现有的语言知识和情感资源的重要性。

3.3 不同语言特征的组合

为了揭示每个语言特征对模型的影响,本文在三个数据集上进行了特征组合实验。由于本文提出的模型不依赖于解析树,所以SST数据中的短语注释(Phrase-level)数据不参与实验。根据表3的性能分析结果,选择在Bi-LSTM基础上,设置相同的参数,并依次在Bi-LSTM上添加语言特征,形成不同的通道,观察模型的性能变化。以下表中的W、P、Ps和T分别表示词向量、位置特征向量、依存句法特性向量和词性特征向量。实验结果如表5所示,随着语言特征的添加,模型的复杂度越来越高,模型的性能起伏比较大;但是,总体性能是呈上升趋势的。其中,在词向量(W)基础上,词性特征向量(T)和句法特征向量(Ps)在性能提升方面起着关键性的作用。

表5 Bi-LSTM语言特征调节的性能

3.4 典型例子分析

为了进一步分析本文提出的模型对比其他模型的优点,这里通过几个具体的样例来分析。如表6所示,从COAE数据集的测试集中提取出一些典型样例的分类结果进行了对比分析。

如表6的样例的分类结果所示。对于样例3,情感词不是单独起作用的,而是通过词序列结合句子的上下语义表达出整个句子的情感。

表6 典型数据实验样例

由于WFCNN,提取的特征是局部相邻词之间的特征,因此会出现误分类为正面的情况。Bi-LSTM虽具有强大的上下文语义捕捉能力,但在样例3中具有大量的正负面情感词。由于对特殊的情感词并没有进行处理,从而出现了误分类。而在Multi-Bi-LSTM中,不仅有强大的上下文语义捕捉能力,能够根据上下语义,对正负面情感词进行程度加强而且还能够对句子进行句法分析,同时,对句子进行句法分析,确定样例3整体情感偏向于负面。因此,对样例3分类正确。对于样例4,样例6,WFCNN模型都没有分类正确。由于这类样例是反问句式,往往是讽刺的表达方式,一般有着和正确类别的相反情感。所以,对于提取的仅仅是局部相邻词之间特征的WFCNN模型仅从句子的表面信息来判断样例的情感类别,会得到错误的分类结果。对于Bi-LSTM,样例4,可以直接从词序上就可以判断出正确分类结果。而样例6,这种讽刺极其强而情感特征又不明显的样例,WFCNN模型和Bi-LSTM模型会简单的根据样例中“会技术”,而进行误分类。对于这类样例,因为本文提出的方法对这类词进行了学习,所以Multi-Bi-LSTM模型可以根据这些词在句子中位置,词与词之间的句法关系和词性特征来学习这类句型的情感信息,从而分类正确。对于样例7,这类中有太多的网络词汇如“逆天”、“艾玛”等等。同时,对于“霸道”在不同领域中,所表达的情感极性不同。因此,WFCNN模型、Bi-LSTM模型以及本文提出的Multi-Bi-LSTM模型都出现了错误的分类。对于样例1、样例2以及样例5,这类样例中的情感词比较明显,没有什么反转讽刺句子。故而,WFCNN模型、Bi-LSTM模型以及本文提出的Multi-Bi-LSTM模型都判断出了正确的类别。

4 总结和未来工作

本文提出多通道双向长短期记忆网络(Multi-Bi-LSTM)进行对文本进行情感分析。所提出的模型,通过对情感分析任务中现有的语言知识和情感资源进行建模形成多通道输入,再利用Bi-LSTM来充分的获得这些有效的情感资源信息。实验结果表明,本文提出的模型在中英文数据集上取得了较好的分类效果。但是,通过典型例子分析可以看出,本文提出的多通道双向长短期记忆网络模型,在中文数据集中,对于跨领域带有极性的情感的词汇以及网络词汇,不能很好地识别出这类文本的情感极性。进而在下一步工作中,重点以中文数据集为中心引入网络词汇和多个领域的文档,对跨领域文本进行情感分类。

猜你喜欢

样例特征向量向量
二年制职教本科线性代数课程的几何化教学设计——以特征值和特征向量为例
向量的分解
克罗内克积的特征向量
聚焦“向量与三角”创新题
“样例教学”在小学高年级数学中的应用
一类三阶矩阵特征向量的特殊求法
数学样例迁移的因素分析及策略探讨
EXCEL表格计算判断矩阵近似特征向量在AHP法检验上的应用
向量垂直在解析几何中的应用
向量五种“变身” 玩转圆锥曲线