一种改进的社交媒体文本规范化方法
2015-04-21宋亚军于中华丁革建
宋亚军,于中华,陈 黎,丁革建,罗 谦
(1.四川大学 计算机学院,四川 成都 610065;2. 浙江师范大学 数理与信息工程学院,浙江 金华 321004;3. 中国民用航空总局第二研究所信息技术分公司,四川 成都 610042)
一种改进的社交媒体文本规范化方法
宋亚军1,于中华1,陈 黎1,丁革建2,罗 谦3
(1.四川大学 计算机学院,四川 成都 610065;2. 浙江师范大学 数理与信息工程学院,浙江 金华 321004;3. 中国民用航空总局第二研究所信息技术分公司,四川 成都 610042)
社交媒体具有文本不规范的特点,现有自然语言处理工具直接应用于社交媒体文本时效果不甚理想,并且基于关键词的算法和应用也达不到预期效果。因此,研究如何更好地规范化社交媒体文本是非常有意义和价值的。本文基于社交媒体文本中非规范词与其规范形式具有相似上下文的假设,引入词嵌入模型来更好地刻画上下文的相似性,提出了一种改进的基于图的社交媒体文本规范化方法,该方法是无监督并且语言无关的,可以处理不同类型语言的大规模无标注社交媒体文本。实验结果表明,该方法能够改进前人方法的不足,并且在与相关方法的对比实验中取得了最好的F值。
社交媒体;文本规范化;自然语言处理;词嵌入
1 引言
微博、Twitter等社交媒体网站每时每刻都在产生大量的短文本,这些用户实时产生的、数量众多的社交媒体短文本具有非常重要的研究和应用价值,它们被广泛用于疾病检测、情感分析和事件发现等。
然而,和普通文本相比,社交媒体文本的书写通常不规范,包含很多符号、缩写、音节替代和俚语等,例如英文推特中经常将“tomorrow”写成“tmrw”或者“2morrow”,而中文微博中也有类似情况,比如“同学”写为“童鞋”、“稀饭”代替“喜欢”等。社交媒体文本书写不规范的特点,使得现有的自然语言处理工具直接应用于社交媒体文本时效果不甚理想[1],比如词性标注器、依存分析工具等,而很多基于关键词的算法和应用也经常达不到预期效果,比如情感分析、事件发现等。因此,研究如何更好地分析处理这种不规范的社交媒体文本是非常有意义和价值的。
目前解决这个问题通常有两种主流的方式: 第一种,针对社交媒体语言和文本的特点,设计符合其特点的新算法和新工具[2-3];另一种则是设计算法将社交媒体文本中不规范的用法转换为其规范的形式,即社交媒体文本规范化,例如将“2morrow”和“童鞋”等不规范形式,分别转换为其规范形式“tomorrow” 和“同学”。社交媒体文本规范化通常作为预处理步骤,将非规范的社交媒体文本进行规范化处理后,交给现有的自然语言工具进行分析处理,而不用重新设计算法和工具。
虽然本文主要关注的是英文推特文本的规范化,但是本文提出的方法是语言无关的,可以方便地应用于其他语言的社交媒体文本,比如中文等。和大多数的相关工作一样,我们只关注于一对一的规范化,即将一个非规范化词规范化为一个对应的规范形式,比如“tmrw”规范为“tomorrow”,而不考虑一对多或多对一的情况,比如“idk”规范为“I don’t know”等。
基于“非规范词和它的规范形式通常出现在相似的上下文中”的假设,我们提出了一种改进的基于图的社交媒体文本规范化方法,该方法可以自动从大规模无标注的社交媒体文本中构建规范化词典,应用于社交媒体文本规范化。
文章接下来的内容组织如下: 第2节讨论相关工作,第3节详细介绍本文提出的方法,第4节描述算法的实现细节和相关数据,第5节对实验结果进行分析和讨论,第6节是文章总结和未来工作展望。
2 相关工作
早期的文本规范化工作大多使用噪声信道模型。文献[4]首先将噪声信道模型应用于文本规范化任务,他们提出了一种新的基于字符串编辑的噪声信道模型,该模型对子串转换的概率建模,极大地提高了文本规范化的效果。文献[5]通过扩展噪声信道模型中的错误模型(将词之间的语音相似性加入错误模型),改进了上述方法,该方法通过学习规则来预测每一个字符的发音,并且预测依赖于词中的相邻其他字符。文献[6]针对SMS文本,提出了一种基于隐马尔可夫模型的文本规范化方法,该方法也是一对一的规范化方法,通过构造常用缩写和非规范用法的词典,可以解决部分一对多的规范化(例如 “howz” 规范化为“how are”或者“aint” 规范化为 “are not”)。文献[7]引入无监督的噪声信道模型对文献[6]提出的模型进行了扩展,模型对常用缩写形式和各种不同的拼写错误类型进行了概率建模。
以上方法都存在一定的局限性,因为它们不考虑上下文的特性并且假设每个非规范词都具有唯一的规范化形式。在文本规范化任务中,相同的非规范词可能有不同的规范化形式(例如“2”可以规范化为“two”、“to”或“too”),在这种情况下没有上下文信息是不可能正确地构建模型和消除歧义的。
还有一些研究人员使用统计机器翻译方法进行文本规范化,这种方法把问题形式化为将词的非规范形式翻译为规范化的形式。文献[8]中基于字符水平的短语对齐的SMT方法,将非规范的SMS文本转换为规范形式。文献[9]提出一种基于字符的SMS文本规范化方法,对新出现缩写的规范化非常有效。
但是基于统计机器翻译模型的规范化方法是有监督的方法,需要大量的标注数据。然而我们没有现成的标注数据可以使用,而创建标注数据也是非常困难的,尤其是在社交媒体文本中,其变化迅速的特点使得标注好的数据很快就会变得不适用[10]。
最近提出的很多方法通过构建规范化词典用于文本规范化任务。例如,文献[11]首先训练分类器用于识别非规范词候选,然后使用词音相似度得到规范化候选,最后利用字面相似度和上下文特征找出最可能的规范化候选;文献[12]通过考察以用户为中心的信息包括用户所处地理位置、推特客户端的类型(比如网页端、移动端、第三方客户端等)等对推特书写习惯的影响,提出了一种针对不同人群的社交媒体文本规范化方法。
文献[13]提出了一个类似的方法,基于上下文相似性和字面相似性构建规范化词典进行推特文本的规范化,该方法使用词袋模型表示上下文分布,然后两两之间计算上下文分布相似度。
但是文献[13]提出的方法存在很多不足: 首先,用词袋模型(bag-of-words)表示上下文分布容易产生高维稀疏问题,因为社交媒体文本中存在大量的不规范词、新词、实体名词等;第二,该方法中使用两两计算相似度的方法选择候选,如果两个词之间没有共享的上下文,那么它们的相似度将会为0,很难得到全局最优的规范化结果。
另一个非常相关的工作是由文献[14]提出的,针对文献[13]提出方法不能得到全局最优的规范化结果,文献[14]提出了一种基于二部图随机游走的方法,该方法首先通过随机游走得到全局优化的基于上下文相似性的规范化候选列表,然后利用非规范词与规范词之间的字面相似度,对规范化候选列表进行重排序,将得到最终的规范化结果加入到规范化词典中。
文献[14]同样也存在不足,因为这篇文章将每个词的上下文定义为前后各两个词组成的有序四元组,并且要求上下文中的每个词都为IV词,这就容易产生上下文稀疏性问题,特别是在社交媒体文本这种以书写不规范为特点的文本中,从算法评测结果的低召回率我们也可以看出这个问题。
文献[15]提出了一种新的无监督的社交媒体规范化方法,他们的方法综合使用了字面特征、上下文特征和语法特征,其中上下文特征和语法特征是从构建好的词关联图中得到。但是他们的方法使用了俚语词典和音译表等多种外部资源,并且非常依赖于使用的词性标注器的效果。
本文针对文献[14]中存在的上下文稀疏问题,通过引入词嵌入模型[16-19]缓解上下文稀疏问题,并且通过实验验证了改进方法的可行性和有效性。我们将在第3节中详细描述我们提出的改进方法。
3 方法
本文通过分析文献[14]工作的不足,引入词嵌入模型对其进行改进,提出了一种改进的基于二部图的社交媒体文本规范化方法,命名为BiGraph+。
3.1 概述
本文的改进主要有两个方面: 第一,取消了文献[14]中上下文词均为IV词的限制,因为社交媒体文本中非规范词的上下文也倾向于使用非规范词,因此要求上下文全为规范词是不合理的,从后面的实验结果可以看出,这个改进在基本保证精确率的前提下可以大幅地提高算法的召回率;第二,针对文献[14]提出的二部图中存在大量单独的上下文节点的情况(本文中将仅和一个词节点连接的上下文节点定义为single节点),通过使用词嵌入模型,找出与这些single节点语义相似的其他非单独上下文节点,在图中将它们连接起来,然后通过随机游走的方法得到全局优化的规范化结果。
3.2 二部图的构造
BiGraph+基于“非规范词与其对应的规范形式具有相似的上下文分布”的假设,每个词的上下文被定义为前后固定窗口大小的词序列,比如给定五元组序列word1word2word3word4word5,定义词word3的上下文为word1word2word4word5。如果另一个词word3′是word3的规范化形式,那么word3和word3′将会有相同的上下文,这种上下文相似性可以用二部图进行表示。
介绍Bigraph+方法前,我们先看文献[14]中定义的二部图,如图1(左)所示,图中左侧节点为上下文节点,右侧节点为词节点,其中词节点可以是规范词也可以是非规范词,上下文节点为规范词序列,图中两个词节点直接或间接连接的上下文节点越多,两个词的上下文相似度越大。
但是这种上下文的定义形式容易产生上下文稀疏的问题,因为在上下文词序列中,只要有一个字母不同,那么两个上下文就会当成不同的上下文,这使得很多上下文节点成为single节点,如图1(左)中深色节点C1和C4所示。
因此针对文献[14]提出的二部图中存在大量单独的上下文节点的情况,通过使用词嵌入模型,找出与这些single节点语义相似的其他非单独上下文节点,在图中将它们连接起来,定义了一种新的二部图,如图1(右)所示,其中词节点与上下文节点之间的连接权重为它们的共现次数,而上下文节点之间的连接权重为它们的语义相似度。
BiGraph+方法的二部图的构造如算法1所示。
算法1:ConstructBiGraphplus(corpus) Input:Ngramcorpus注释:W为词节点,C为上下文节点,E1为词与上文节点之间的边,E2为上下文节点之间的边Output:(G(W,C,E1,E2))foreach(ngram,count)in(Ngrams,Count)do 注释:添加词节点word=GETCENTER(ngram)ifIS_NOISY(word) W←ADDWORD(word,false)else W←ADDWORD(word,true)注释:添加word-context边到E1
E1←ADDCONTEXT(context,word,count)注释:map存储上下文对应的不同中心词的个数,用于判断single节点与非single节点map.put(context,CURRENT+1)注释:添加上下文节点foreach(context,count)inmap 注释:count>1时为非single节点 ifcount>1 C←ADDCONTEXT(Context,false) 注释:count=1时为single节点 else C←ADDCONTEXT(Context,true) 注释:添加context-context边到E2 foreachCiinSingleContext foreachCjinnoSingleContext wij=Similarity(Ci,Cj) Ifwij>Threshold E2←ADD(Ci,Cj,wij)
图1 Bgraph(左)和Bigraph+(右)示例图
算法1中,我们使用Aspell词典(v0.60.0)判断一个词是规范词(IV)还是非规范词(OOV)。图中词节点与上下文节点之间边的权重定义为它们的共现次数,而上下文节点之间边的权重定义为它们的语义相似度,通过词嵌入模型进行计算得到。
3.3 规范化词典构造
构建好二部图之后,按照算法2构造规范化词典。
算法2:INDUCELEXICON(G) 注释:W为词节点,C为上下文节点,E1为词与上文节点之间的边,E2为上下文节点之间的边 Input(G(W,C,E1,E2))Output(Lexicon)INIT((Lexicon))foreachwordinWinG(W,E)do IfISNOISY(word) INIT(Rn) 注释:进行k次随机游走 fori=0toK do 注释:Bigaph+与(Hassan2013)方法的最大区别体现在这一随机游走过程中Rn←RANDOMWALK(word)注释:计算平均的hittingtime并且归一化,作为上下文相似度存储于Ln中Ln←NORMALIZE(Rn)注释:计算字面相似度并且和上下文相似度综合,对候选列表重排序
算法2的核心是随机游走过程Rn ← RANDOMWALK (word),算法中每个非规范词进行K轮随机游走,每轮随机游走按照这样一个过程进行: 从给定的非规范词节点开始,按照状态转移概率游走至相邻的上下文节点,然后从上下文节点随机游走至另一个词节点,到达规范的词节点或者游走步数达到设定的阈值则停止,当然本文的随机游走中允许上下文节点之间的跳转,这也是Bigraph+方法与文献[14]的最大区别。其中随机游走状态转移概率(从一个节点i转移到另一个节点j的概率)p定义为:
(1)
通过K轮随机游走我们可以得到一个规范化候选列表Ln,其中每个候选规范词n与非规范词m都存在一个上下文相似度L(m,n),定义为K轮随机游走中从m随机游走至n的步数的平均值H(m,n)归一化的结果,H(m,n)定义如公式(2)所示:
(2)
其中,Hr(m,n)是第r次随机游走的步数,R为K轮随机游走中到达n的次数。
以图2为例,假设某轮随机游走的起点为非规范词节点“makin”,那么我们的随机游走路径可以为[“makin”->C1->C2->“making”],这时随机游走路径长度为4(r=4),也有可能为[“makin”->C2->“making”],这时路径长度为3(r=3),2轮随机游走后平均路径长度为3.5,词m和n的上下文相似度L(m,n)定义如公式(3)所示:
(3)
最终的得分为上下文相似度和字面相似度的加权和,如式(4)所示。
(4)
3.4 上下文语义相似度计算
本文采用词嵌入模型计算上下文的语义相似度,主要步骤如下:
一、训练词嵌入模型;
二、从训练好的词嵌入模型得到上下文中每个词的词向量;
三、连接所有词向量为一个上下文向量;
四、通过余弦夹角公式计算上下文之间的语义相似度:
(5)
其中C1和C2均为上下文的向量表示形式。
字面相似度的计算使用文献[20]提出的方法,该方法基于最大相同字串率和编辑距离,计算公式如下:
(6)
(7)
4 实现与数据
4.1 训练数据
我们从Stanford’s 476 million Twitter Dataset[21]中随机抽取了1.5GB的英文推特文本作为训练语料。文本的语言识别使用langid.py Python library[22-23]完成。
CMU Ark Tagger (v0.3.2)是一个专门针对社交媒体文本进行词性标注的工具,其在社交媒体文本上进行词性标注的准确率达到了95%[2-3],这里我们使用CMU Ark Tagger (v0.3.2)进行词汇单元化和词性标注。
词汇单元化和词性标注之后,我们将文本中词性被标注为提及(例如,@brendon),语篇标记 (例如 RT), URL, 邮箱地址, 表情符号和标点的词汇去除,用得到的数据构造二部图、训练词嵌入模型和语言模型。
4.2 词向量模型
word2vec[24-25]是2013年由Google研究人员提出的非常高效的基于神经网络的词嵌入模型,我们训练word2vec得到每个词的词向量表示,模型参数设定见4.5节,训练好词嵌入模型后直接应用于BiGraph+中上下文的语义相似度计算。
4.3 语言模型
为了将构建的规范化词典用于测试,我们使用SRILM工具[26]在1.5GB英文推特文本上训练了一个5-gram语言模型,测试中我们使用维特比解码器,选择出符合当前上下文的最佳规范化候选,作为我们的规范化结果。
第四,对于某些淬火温度较高的不锈钢零件,其淬火温度和熔点温度很接近,在使用感应器进行产品局部表面淬火时很容易烧伤夹角或不规则部位,导致零件报废,而激光淬火则不受此限。
4.4 参数设置
实验中有多个参数需要人工设置,首先是word2vec模型中词向量的维数,通过实验发现该参数与语料库的大小有关系,在我们的实验中将其设置为300,上下文语义相似度阈值设置为经验值0.85,上下文窗口大小、随机游走模型中随机游走的最大步数和随机游走次数都按照文献[14]的实验分析进行设置,其中上下文窗口大小设置为5,随机游走的最大步数设置为4,随机游走次数设置为100次。
5 实验
5.1 测试数据集
我们使用LexNorm1.1[11]作为算法评价的数据集. LexNorm1.1包括549条英文推特,其中包含 1 184个人工标注的非规范词。这个数据集在文本规范化研究中广泛用于算法评价测试,这使得我们可以直接在这个数据集上和其他先前的方法进行比较[11,15]。
5.2 实验结果与分析
5.2.1 评价方法
对于实验结果的评价,本文采用标准的精确率(P)、召回率(R)和 F度量值作为评价标准。精确率(Precision)衡量的是在所有被算法规范化的词中,正确规范化的词所占的比率;召回率(Recall)衡量的是在所有需要被规范化的词中,算法进行了正确规范化的比率;F 度量值(FScore)是对上述两个指标的综合考虑。三个指标的计算公式如下:
(8)
(9)
(10)
5.2.2 结果与分析
(1) 规范化词典构造
规范化词典就是每个非规范词(OOV)与其规范形式的映射,相同的非规范词在不同的上下文中可能具有不同的规范形式,因此在构建规范化词典时保留Top-N个规范化候选,而不是仅仅保留一个,这样就可以避免传统方法中,每个非规范词都规范化为相同规范形式的缺点。因此构造规范化词典之前,一个很重要的步骤就是确定每个非规范词规范化候选的数目,以往的方法中往往都是根据经验设定,本文我们通过实验来设定,如图2所示。
图2 规范化词典的构造
图2中横坐标为规范化词典中每个非规范词的规范化候选的个数,纵坐标为百分比,图中三条曲线最上方曲线为精确率,中间曲线为召回率,最下方曲线为F值,从图中可以看出,当横坐标值达到一定值的时候,三条曲线的值都会趋于稳定,因此我们可以从稳定之后的值中选择一个N,文章中为了得到更高的召回率选取N=10。
(2) 实验对比与分析
构造好规范化词典后,利用训练好的语言模型根据当前上下文从词典选择出每个非规范词最佳规范形式。表1是本文提出的方法与文献[13]和文献[14]中的方法的实验对比,表2中将本文提出的方法与其他相关工作进行了实验对比,从实验对比结果可以看出本文提出的方法在精确率和召回率都有很好的结果。
从表1中可以看出,与Han(2012)方法相比,我们提出的BiGraph+方法在精确率、召回率和F值三个指标上都有很大的提高,而和Hassan(2013)方法相比,BiGraph+在精确率稍微降低的情况下,召回率和F值都大幅地提高了,从而证明了我们所提出方法的有效性。
从表2可以看出与Han(2011)方法相比,我们提出的方法无论在精确率、召回率,还是F值上,效果都要更好,而与Sönmez (2014)方法相比,虽然我们的精确率稍低,但是我们的召回率和F值都更高,而相比Sönmez (2014),我们的方法不依赖于外部资源,并且Sönmez (2014)方法非常依赖于其使用的词性标注器的效果。
表1 本文提出方法与文献[13]和文献[14]实验对比
表2 本文提出方法与其他相关方法实验对比
(3) 错误分析
这里,讨论一下我们在实验中发现的一些问题。首先实验中对精确率影响最大的是一些长度较短的非规范词,比如“dn’t”的规范化形式可以是 “don’t”、“doesn’t” 或者“didn’t”,并且它们出现的上下文也是类似的,这就产生了模糊性,从而导致错误;另外我们的方法对于新出现的非规范词也是无法处理的。
6 总结与展望
本文基于社交媒体文本中非规范词与其规范形式具有相似上下文的假设,引入词嵌入模型更好地刻画上下文的相似性,提出了一种改进的基于图的社交媒体文本规范化方法,我们提出的方法是无监督且语言无关的,能够方便地应用于其他语言。但是本文方法只能一对一地规范化,无法处理新出现的非规范词等,因此下一步工作将尝试将模型进行扩展和改进。
[1] ARitter,CCherry,B Dolan. Unsupervised modeling of twitter conversations[C]//Proceedings of the Human Language Technologies: Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2010:172-180.
[2] O Owoputi, B O’Connor,C Dyer,et.al. Improved Part-of-Speech Tagging for Online Conversational Text with Word Clusters[C]//Proceedings of the Human Language Technologies : Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2013: 380-390.
[3] K Gimpel, N Schneider, B O’Connor, et.al. Part-of-speech Tagging for Twitter: Annotation, Features, and Experiments[C]//Proceedings of the Human Language Technologies: Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics,2011:42-47.
[4] E Brill, R C Moore. An improved error model for noisy channel spelling correction[C]//Proceedings of the 38th Annual Meeting on Association for Computational Linguistics, Englewood Cliffs, NJ, USA,2000: 286-293.
[5] K Toutanova, R C Moore. Pronunciation modeling for improved spelling correction[C]//Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, ACL, Philadelphia, USA, 2002: 144-151.
[6] M Choudhury, R Saraf, V Jain, et.al. Investigation and modeling of the structure of texting language[J]. International Journal of Document Analysis and Recognition, 2007,10: 157-174.
[7] P Cook, S Stevenson. An unsupervised model for text message normalization[C]//Proceedings of the Workshop on Computational Approaches to Linguistic Creativity, Boulder, USA. 2009: 71-78.
[8] A Aw, M Zhang, J Xiao. A phrase-based statistical model for SMS text normalization[C]//Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, Sydney, Australia, 2006: 33- 40.
[9] D Pennell, Y Liu. A Character-Level Machine Translation Approach for Normalization of SMS Abbreviations[C]//Proceedings of Fifth International Joint Conference on Natural Language Processing, 2011: 974-982.
[10] Y Yang, J Eisenstein. A Log-Linear Model for Unsupervised Text Normalization[C]//Proceedings of the Empirical Methods on Natural Language Processing, 2013: 61-72
[11] B Han, T Baldwin. Lexical Normalization of Short Text Messages: Makn Sens a #Twitter[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies,2011,1: 368-378.
[12] S Gouws, S Metzler, C Cai, et al. Contextual Bearing on Linguistic Variation in Social Media[C]//Proceedings of the Workshop on Languages in Social Media, 2011: 20-29.
[13] B Han, P Cook, T Baldwin. Automatically constructing a normalisation dictionary for microblogs[C]//Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, 2012: 421-432.
[14] H Hassan, A Menezes. Social Text Normalization Using Contextual Graph Random Walks[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, 2013: 1577-1586.
[15] C Sönmez, A Ozgür. A Graph-based Approach for Contextual Text Normalization[C]//Proceeding of Conference on Empirical Methods in Natural Language Processing (EMNLP). 2014: 313-324.
[16] Y Bengio, R Ducharme Vincent, C Jauvin. A neural probabilistic language model[J]. The Journal of Machine Learning Research, 2003, 3: 1137-1155.
[17] A Mnih, G E Hinton. A scalable hierarchical distributed language model[J]. Advances in neural information processing systems, 2009, 21: 1081-1088.
[18] T Mikolov, A Deoras, D Povey, et al. Strategies for Training Large Scale Neural Network Language Models[C]//Proceedings of the Automatic Speech Recognition and Understanding (ASRU), 2011 IEEE Workshop on IEEE, 2011:196-201.
[19] T Mikolov, W Yih, G Zweiq. Linguistic kegularities in Continaous Space Word Representations[C]//Proceedings of the HLT-NAACL.2013.
[20] D Contractor, T Faruquie, V Subramaniam. Unsupervised cleansing of noisy text[C]//Proceedings of the 23rd International Conference on Computational Linguistics, 2010: 189-196.
[21] J Yang, J Leskovec. Patterns of Temporal Variation in Online Media[C]//Proceedings of the 4th International Conference on Web Search and Web Data Mining, 2011: 177-186.
[22] M Lui, T Baldwin. Langid.Py: An Off-the-shelf Language Identification Tool[C]//Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2012: 25-30.
[23] T Baldwin, M Lui. Language Identification: The Long and the Short of the Matter[C]//Proceedings of the Human Language Technologies: Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2010: 229-237.
[24] T Mikolov, I Sutskever, K Chen, et al. Distributed representations of words and phrases and their compositionality[J]. Advances in Neural Information Processing Systems.2013,3: 3111-3119.
[25] Q Le, T Mikolov. Distributed Representations of Sentences and Documents[C]//Proceedings of the 31st International Conference on Machine Learning (ICML-14). 2014: 1188-1196.
[26] AStolcke. SRILM-an extensible language modeling toolkit[C]//Proceedings of the Interspeech. 2002: 901-904.
An Improving Method for Social Media Text Normalization
SONG Yajun1, YU Zhonghua1, CHEN Li1, DING Gejian2, LUO Qian3
(1. College of Computer Science, Sichuan University, Chengdu, Sichuan 610065, China;2. Colledge of Mathematics, Physics and Information Engineering,Zhejiang Normal University, Jinhua, Zhejiang 321004, China;3. Information Technology Branch, the Second Research Institute of General Administration of Civil Aviation of China, Chengdu, Sichuang 610042, China)
The informal style of social media texts challenges many natural language processing tools, including many keyword-based methods proposed for social media textTherefore, the normalization of the social media text is indispensable. Based on the assumption of context similarity between the lexical variants, we proposed an improved graph-based social media text normalization method by introducing word embedding model to better capture the context similarity. As an unsupervised and language independent method, it can be used to process large-scale social media texts of various languages. Experimental results show that the proposed method outperforms the of previous methods with the best F-score.
social media; text normalization; natural language process; word embedding
宋亚军(1990—),硕士研究生,主要研究领域为自然语言处理。E-mail:songyajun90@163.com于中华(1967—),副教授,主要研究领域为自然语言处理。E-mail:yuzhonghua@scu.edu.cn
1003-0077(2015)05-0104-08
2015-07-31 定稿日期: 2015-09-30
浙江省自然科学基金(LY12F02010);四川省科学支撑项目(2014GZ0063)
TP391
A