基于双向分层语义模型的多源新闻评论情绪预测

2018-05-28 03:05郭文雅袁晓洁
计算机研究与发展 2018年5期
关键词:信息源文档语义

张 莹 王 超 郭文雅 袁晓洁

(南开大学计算机与控制工程学院 天津 300350) (yingzhang@nankai.edu.cn)

随着互联网技术和各种类型互联网服务的迅速发展,人们获取信息的途径发生了根本性的转变.其中,在线新闻服务成为了一种新型信息传递形式,每天吸引着数以亿计的在线用户,并允许用户在阅读新闻后发表评论表达自己的观点.由于在线新闻信息的传播速度快、受众范围广,有效分析用户的情绪有助于在线新闻服务商为用户提供更好的服务,也有助于政府及时了解舆情,对互联网内容进行更加有效的监管.因此,自动判别在线新闻评论的情绪具有重要的理论意义和应用价值.

一种很自然的判别在线新闻评论的方法是根据用户撰写的评论内容,将评论划分到多类情绪标签中的某一类中,即将该任务看作多分类问题.近看来,情绪标注的研究已经取得了诸多成果,但仍然存在一定的问题:

1) 传统的情绪标注主要采用机器学习方法,使用人工的方式抽取特征,并使用分类器进行分类,此类方法的性能依赖于特征的选取[1],不能与分析需求很好地结合,也不能准确地表达高层语义;

2) 现有工作大多没有充分考虑文本中句子之间的逻辑关系,句子之间的因果关系、转折关系等对整个文本的语义有重要的影响,转折之后的内容相较于转折之前的部分对整个文本的语义有更大的影响,在进行情绪标注时,充分利用句子之间的逻辑关系才能得到更好的效果;

3) 现有工作没有充分利用其他相关信息源,目前大部分工作只用研究对象的文本内容的一种信息源进行挖掘,以在线新闻评论的情绪标注为例,新闻评论固然是体现读者阅读情绪的直接信息,但新闻的文本内容也是影响用户情绪的直接原因,另外,新闻网站提供情绪投票服务,用户对该新闻的情绪投票也可帮助预测该评论所蕴含的情绪,因此新闻评论的文本内容、新闻文档的文本内容以及用户情绪投票结果均可从不同角度帮助用户情绪的预测.

为了解决上述问题,本文提出了一种基于多信息源的双向分层语义表示模型,称为双向分层语义神经网络(bi-directional hierarchical semantic neural network, Bi-HSNN).该模型采用深度学习的方法,从数据中自动学习特征,解决了传统机器学习中人工抽取特征的问题;构建分层语义表示模型,既抽取文本的语义关系,又自底向上地学习文档中句子间的逻辑关系;另外,利用新闻评论文本、与评论相关的新闻文本、新闻的用户情绪投票3个信息源,对在线新闻评论进行情绪标注.

本文描述了在新浪新闻和腾讯新闻2个真实数据集上的一系列实验结果和相关分析,比较了各单信息源和不同信息源的组合方案,验证了利用多信息源进行在线新闻情绪标注的必要性;在真实数据集上的实验表明,本文提出的Bi-HSNN模型相较于已有基于传统机器学习的情绪标注方法和基于其他神经网络模型的方法具有更好的情绪标注效果.

1 相关工作

情绪标注(emotion tagging)是意见挖掘和情绪分析(opinion mining and emotion analysis)领域最重要的子课题之一,近几年受到了越来越多学者的关注.1992年Hearst[2]首次提出了基于文本的情绪分析和意见挖掘问题,此后学术界出现了大量关于文本情绪分析和意见挖掘的研究工作[3].情绪标注是意见挖掘和情绪分析领域重要的子课题之一[4],该子课题要求给出一个能够预测出一个文本所对应的情绪(如产品评价[5-7]、新闻文档[8-10]、新闻评论[11-12]等)的解决方案.本文主要关注在线新闻评论的情绪标注问题.

机器学习技术广泛应用于情绪标注问题上,目前大多数的研究将重心放在特征模式的设计上,通过特征工程技术预先人工定义的特征模式抽取出相关的特征,使用支持向量机(support vector machine, SVM)等分类器将文本特征分类到某一情绪类别中,这些方法一般只使用单词级别的特征对文本进行分类.与此不同,前期工作[8-9,13]作出假设,认为相较于文本中具体的某一单词或关键字,文本的情绪应该和文本所描述的话题(topic)更具有相关性,进而提出了一系列情绪-话题模型.

自2006年Hinton等人[14]将深度学习方法的研究成果发表于《Science》,深度学习方法在情绪标注领域得到了很好地应用.

目前基于深度学习的文本情绪分析方法主要通过自然语言处理相关技术对文本的情绪和语义进行分析.Ranzato等人[15]提出基于深度学习的文本表达学习模型,利用深度多层自动编码网络,逐层学习文本的高层语义特征.同时,Weston等人[16]提出深度嵌入的方式学习特征的层次表达,同时利用不同层次的特征实现不同特征层之间的特征共享,利用辅助任务更好的学习特征.一些研究工作基于语义合成性原则和自然语言的可递归性,提出了一系列基于递归神经网络的文本情绪分析模型.Socher等人基于递归自动编码机(recursive autoencoder)加入了情绪类别相关的信息,并引入重构损失的概念,提出了一种半监督式的递归自动编码机模型.该模型在通过文本所包含单词的词向量生成文本向量时,可以在其中保留更多情绪相关的信息.Socher等人[17]在之后又基于语义合成性原则进一步提出了矩阵-向量递归神经网络(matrix-vector recurrent neural network, MV-RNN).Tang等人[6]提出一种改进的词向量学习方法,将推特短文本中的表情符号作为次要情绪标注,并根据其中的情绪信息进行词向量的学习,在此基础之上,将包含情绪信息的词向量作为词汇的特征,用于构建大规模的情绪词典.

本文采用深度学习的方法解决在线新闻评论的情绪标注问题,提出一种新型神经网络模型,在生成文档的特征表示时不仅考虑到句子中词汇之间的关系,而且能兼顾到文档中句子之间的逻辑关系,从而生成更具代表性的文本分层语义表示,更充分地运用文本中所蕴含的语义信息来对文本进行情绪标注.

另一方面,上述方案只使用了文档自身的信息,忽略了其他相关信息源中的信息,而这些信息源通常对文档语义的表达具有显著的影响.本文在进行新闻评论文本情绪标注时,使用了多种信息源来提升准确度,包括新闻评论文本、新闻文档文本以及用户情绪投票信息.本文扩展了之前的初步研究工作[18],引入了改进的双向长短记忆模型对在线新闻评论进行了多信息源情绪分析工作,捕获文档更加完整的语义特征,从而提高情绪标注的效果.

2 基于多信息源的双向分层语义神经网络

2.1 问题定义

情绪标注问题可以形式化为一个多分类问题,目标是为一段用户撰写的文本分配某一个情绪.本文提出的在线新闻评论情绪标注问题的目标是根据一系列用户在阅读新闻后撰写的评论,以及评论所对应的新闻文档、大量用户对新闻做出的情绪投票,标注在线新闻评论蕴含的情绪.

现对在线新闻评论情绪标注问题定义如下:给定一个新闻评论集合C和新闻文档集合D,每一条新闻评论c∈C都对应一个d∈D,表示c是在用户阅读新闻d之后做出的评论.此外定义情绪集合E={e1,e2,…,eK},为新闻评论标注的情绪是该集合中的一个元素.每一个新闻文档d都对应一个用户情绪投票Md={μ1,μ2,…,μK},其中μk∈是投票中对于情绪ek的投票计数.在此情况下,情绪标注工作需要做的是根据评论文本c、评论对应的新闻文档d以及d对应的用户情绪投票Md的信息,将评论c分配至情绪集合中的一个ek.

本文提出的基于多信息源的双向分层神经网络模型可分为3个部分:

1) 文档的分层语义神经网络,学习句子中单词间的语义关系和句子间的逻辑关系;

2) 考虑新闻评论内容、新闻内容和用户情绪投票信息的多信息源分层语义神经网络,充分融合多信息源进行特征提取;

3) 适当的分类方法,将抽取的特征分配到某个具体的情绪.

2.2 文档的双向分层神经网络

本节主要介绍了文档的双向分层神经网络,将可变长度的文本表示成定长的特征向量.

单词是句子的基本组成部分,而句子又在结构上和语义上组成了文档.语义合成性原则[19]指出,任意表达式(如一个句子或一篇文档)的语义源自于它每一个组成部分各自的语义以及它们组合在一起所使用的规则.因此本文提出的方法在计算文档表示时可以分为2步:1)从单词的表示(如词嵌入)生成句子级别的语义表示;2)再从句子的表示最终生成整篇文档的语义表示.

2.2.1 句子语义表示模块

在获取句子的语义表示之前,本文首先使用词向量(word embedding)来表示每一个单词.词向量技术是自然语言处理领域中的一种特征学习技术,它将一个维度为词典中所有单词数量的高维空间嵌入到一个维数低得多的连续向量空间中,词典中的每个单词被表示为实数域上的向量,因此词向量也被称为词嵌入技术,也可以看作一种降维技术.

根据词向量技术,词典中每一个单词被表示为一个低维的、连续的、实数值的向量,所有的向量都存储在矩阵L∈dim×|V|中,其中dim为预定义的词向量的维度,V表示文本的词典.词向量的值可以被随机初始化,然后作为一个参数随着深度学习的过程和神经网络一起训练[20-21],或者通过成熟的词向量算法预先求得[22-23].本文采取第2种方式,使用成熟的词嵌入技术求得词向量来更好地利用单词的语义和语法上的联系.

本文引入卷积神经网络来计算句子的语义表示,图1为模型示意图,模型主要包括4层:

1) 输入层.输入层的输入为一个句子中的所有词.根据词向量矩阵,输入层将句子中的词映射为相应的词向量,将整个句子重新组织为该句子中所有词所对应的词向量按照原词出现的顺序排列之后的连接.

2) 卷积层.卷积层使用不同的卷积核对输入进行扫描,抽取得到输入中感受野内的词与词之间局部特征,得到特征矩阵.需要注意的是,每一个卷积核都将产生一个独立的特征矩阵.

3) 池化层.通过对特征矩阵进行平均池化操作得到句子的核心特征,并将不定长的句子输入转化为定长的特征输出.

4) 折叠层.卷积核不同,卷积层所得到的特征矩阵不同,池化层所得到的句子特征也不相同.折叠层将不同卷积核得到的不同句子特征进行归并,生成最终的句子特征.

Fig. 1 The overview of our bi-directional hierarchical semantic representation model using multiple information sources图1 多信息源双向分层语义表示模型示意图

句子语义特征表示模块中的卷积神经网络部分不包含损失层,这是因为句子模块并不是独立训练的模块,而是和文档语义特征表示模块一起训练,因此会在总体模型的最上层拥有统一的损失函数层.

输入层将输入句子中的单词映射为较低维度的词向量,将句子重新组织为词向量的串联.给定一个包含n个单词的句子{w1,w2,…,wn},句子中的每一个单词wi都通过经由语料库预先求得的词向量矩阵L∈dim×|V|映射为该单词所对应的词向量wei∈dim,其中,dim为词向量的维度,V为词典,|V|即为词典的大小.则卷积神经网络的输入层的输出,即卷积层的输入为

I=(we1,we2,…,wen)∈dim×n.

(1)

本文在卷积层使用不同窗口大小的卷积核对句子向量进行卷积操作,捕捉不同粒度的上下文语义特征,并在此基础上生成句子的语义表示特征.这种方式已经被证明在情绪分析和情绪标注领域具有很好的效果.本文使用窗口为3,4,5的卷积核,用来捕获3,4,5-gram的语义特征.

令卷积核为cf,lcf为卷积核cf的窗口宽度,Wcf和bcf分别为卷积核cf线性部分的共享参数.该卷积核作用于感受野内的词向量上,并由此生成所对应的局部特征.感受野的大小即为卷积核的窗口大小.

因此卷积层中,卷积核cf在每一个感受野上的输入,为卷积核窗口中从wei开始共lcf个单词所对应的词向量的串联:

Icf=(wei,wei+1,…,wei+lcf-1)∈dim×lcf,

(2)

则卷积层中卷积核cf对于该感受野内的输入,求得局部特征:

Ocf=tanh(Wcf·Icf+bcf),

(3)

Wcf∈locf×(dim×lcf),

(4)

其中,Wcf为卷积操作的权重矩阵;bcf∈locf,为卷积操作的偏置量;locf是卷积层输出的长度;tanh是分线性的双曲正切函数,为卷积操作增加非线性特性.

每一个卷积核对窗口大小为lcf的词向量序列进行卷积,得到该部分的局部特征值,顺序求得每一部分的局部特征后得到整个句子的特征矩阵:

Ocf=(Ocf,0,Ocf,1,…,Ocf,n-lcf),

(5)

其中,n为句子中所包含的词向量的总数.

卷积层之后,池化层将对卷积操作所得到的特征矩阵进行池化操作.本文中使用平均池化操作,在特征矩阵上取平均值,该平均值即为该卷积核所得到的句子语义特征表示:

(6)

其中,i=0,1,2,…,n-lcf.此外,池化操作也可以保证卷积神经网络对于不定长的输入,也能产生特定长度的句子特征.

在此之后,本文通过一个平均折叠层将所有的池化层输出进行归并,得到最终的句子语义表示特征:

(7)

其中,cf1,cf2,cf3分别为上文所述窗口大小为3,4,5的卷积核.

2.2.2 文档语义表示模块

本节介绍利用改进的双向长短记忆模型(bi-directional long-short term memory model, Bi-LSTM)从句子的语义表示进一步生成文档的语义表示的过程.

给定一组句子的语义表示并由此生成文档语义表示,最简单和自然的策略是对所有的句子表示取平均值或最值.但这种方法完全没有考虑到句子之间的语序以及逻辑联系,显然不能捕捉句子间的因果或转折等复杂关系.神经网络方法常使用循环神经网络(recurrent neural network, RNN)解决这一问题,循环神经网络善于处理序列类型的数据,不同于全连接的前馈神经网络,循环神经网络通过循环递归的结构使得自身具有一定程度的记忆功能,能够有效地利用序列自身所携带的信息进行分析预测.然而,循环神经网络由于天然的结构缺陷,导致实践中无法学习输入数据中距离较远的逻辑关系.长短期记忆模型将循环神经网络的循环结构替换成长短期记忆单元,解决远距离逻辑关系的学习问题[24].

本文使用一种经过改进的双向长短记忆模型(Bi-LSTM)来获得文档的语义表示,Bi-LSTM转化函数如下.

1) 向前推算(forward pass):

ft,fwd=δ(Wf,fwd·(ht-1,fwd,xt)+bf,fwd),

(8)

it,fwd=δ(Wi,fwd·(ht-1,fwd,xt)+bi,fwd),

(9)

ot,fwd=δ(Wo,fwd·(ht-1,fwd,xt)+bo,fwd),

(10)

(11)

(12)

ht,fwd=ot,fwd⊙Ct,fwd,

(13)

2) 向后推算(backward pass):

ft,bwd=δ(Wf,bwd·(ht+1,bwd,xt)+bf,bwd),

(14)

it,bwd=δ(Wi,bwd·(ht+1,bwd,xt)+bi,bwd),

(15)

ot,bwd=δ(Wo,bwd·(ht+1,bwd,xt)+bo,bwd),

(16)

(17)

(18)

ht,bwd=ot,bwd⊙Ct,bwd.

(19)

向后推算部分公式与向前推算部分类似,具体符号意义这里不再赘述.需要注意的是,向前推算从段落中第1句扫描至最后1句,共设有n句话,则t从1遍历至n;而向后推算部分是从最后一句开始,即t从n遍历至1.

在经典Bi-LSTM[25]中,最后1层隐含层的输出通常作为最终的文本表示,如图2所示.本文对Bi-LSTM进行了简单的扩展,提出了Avg Bi-LSTM模型,该模型将所有隐含层的输出取平均值作为最终的文本语义表示,如图3所示.这样,最终获得带有不同间隔的句子间的语义和情绪的逻辑关系的文本特征表示.

Fig. 2 Classical Bi-LSTM图2 经典Bi-LSTM模型示意图

Fig. 3 Avg Bi-LSTM图3 Avg Bi-LSTM模型示意图

2.3 多信息源的双向分层神经网络

本节介绍多信息源在线新闻评论情绪标注方法,需要考虑的信息源包括用户评论,在线新闻,读者情绪投票.图4为基于多信息源的双向分层神经网络的示意图,可以看出,在本模型中,新闻评论的多源分层语义表示特征由3部分组成:新闻评论文本的分层语义表示特征、新闻文档文本的分层语义表示特征以及用户情绪投票特征.

前2种信息源为用户评论和新闻文档的分层语义表示.用户评论是用户对于新闻文档的反应,能够直接体现用户的情绪,另一方面,评论的情绪很显然会直接受到新闻文档的影响,因此本文将新闻文档纳入考虑的范围内.为了对用户评论和新闻文档进行建模,本文利用2.2节的分层语义表示模型获得每一条评论c和新闻文档d的特征特征向量表示c′∈dimc和d′∈dimd,其中dimc和dimd分别为评论和新闻文档的特征向量的维度.

(20)

Fig. 4 The overview of our bi-directional hierarchical semantic neural network using multiple information sources图4 多信息源双向分层神经网络示意图

2.4 情绪分类方法

本节使用2.3节中得到的新闻评论的多源分层语义表示特征作为分类的特征向量,代替传统机器学习中人工抽取的特征进行情绪分类.

如图4所示,多信息源的在线新闻评论情绪标注工作最终抽取的特征是在线新闻、在线新闻评论和用户情绪投票特征向量的串联,在情绪分析过程中,本文引入Softmax分类器,将新闻评论的特征表示转换为条件概率来表示评论被分到每一个情绪类别的概率.

对于给定语料库中第i个评论ci,ci的情绪标注结果为情绪类别集合ek(k=1,2,…,K)中一种情绪的条件概率可通过函数Softmax计算得出:

(21)

其中,ci为第i个评论,repi为评论ci的多信息源分层语义表示特征,ω为将表示repi转换为|E|维实数向量的矩阵,E为情绪集合,ωj可以看作repi中每一项对于情绪ej的结合系数.

由于训练集中每一条评论都有与之对应的真实情绪标签,本文通过有监督的方式对模型进行训练.本文将真实的情绪分布与预测得到的情绪分布之间的交叉熵误差作为目标损失函数:

(22)

其中,c∈C为语料库中的一条评论,e为情绪集合E中的一种情绪,a可以是任何一个合法的对数函数的底数,P(e|c)表示模型预测的评论c属于情绪e的概率,Pg(e|c)表示真实情绪分布中评论c属于情绪e的概率分布.需要注意的是,在真实的情绪分布中,只有评论真正属于的情绪类别的概率是1,其余全被置为0.

之后将交叉熵误差作为目标损失函数,通过反向传播算法训练,由随机梯度下降法更新模型的参数.

本文使用dropout[10,26]方法进行参数的正则化,用以消除模型过拟合的影响.dropout方法的核心思想是在训练阶段(training)随机地移除神经网络中的部分节点,而在测试阶段(testing)使用全部节点.dropout引入一个超参数p,表示神经网络中每一个节点在每一次迭代中都会以1-p的概率被移除,或以p的概率被保留.因此在每次迭代中,神经网络只有被保留的部分节点所组成的“子网络”会被训练,也就只有这些保留的节点中的参数会被更新,而其他节点的参数依然保留上次迭代的结果.这样不仅能加速训练过程,而且能大大解决过拟合问题所带来的影响.

(23)

m(i)~Bernoulli(p),

(24)

其中,m为dropout向量,与Icf具有相同的维度,m(i)表示m中的第i个元素.m对于不同的Icf都要重新计算,以保证每一次移除操作都是完全独立的.

对于模型中的Bi-LSTM模块的隐含层向量也要进行相似的dropout处理,这里不再赘述.

3 实验与分析

本节首先介绍相关的实验设置,包括实验所使用的数据集、评价指标以及用于比较的基准算法,之后给出实验结果并进行分析和讨论.

3.1 数据集

新浪新闻(Sina news)和腾讯新闻(QQ news)是中国用户最多的新闻网站之一.从新浪新闻的社会频道(society channel)*http://news.sina.com.cn/society/和腾讯新闻的娱乐频道(entertainment channel)*http://ent.qq.com/中收集了2011年1月到6月点击量较多的热点新闻,以及它们的热点评论和用户情绪投票信息用于实验.在数据集中随机采样出部分新闻以及它们排名前20的热点评论(如果评论数量不足20,则选择全部评论)以及用户情绪投票作为训练集和测试集,命名为新浪数据集(Sina dataset)和腾讯数据集(QQ dataset).新浪数据集中共有5 185条评论、369条新闻、83 634个投票,腾讯数据集中共有5 414条评论、372条新闻、993 089个投票.每一条评论都与它所对应的新闻相对应.相关统计信息如表1所示:

Table 1 The Statistics of Labeled Comments of Datasets表1 数据集评论标注统计信息

为了评估预测效果,对2个数据集情绪分类进行人工标注.在新浪新闻和腾讯新闻中,虽然用户可以使用网站自带的投票系统表达情绪,但是投票系统和评论系统是独立的,投票不能与评论一一对应,也就不能将用户的投票作为评论所表达情绪的标注向量.所以本文只借用了新浪新闻和腾讯新闻投票系统中的情绪类别,并人工对每一条的情绪进行标注.由于工作量的原因,每个数据集只分配了3个标注人员.新浪数据集和腾讯数据集的8类情绪的标注结果如表2和表3所示:

Table 2 The Statistics of Labeled Comments of Sina Dataset表2 新浪数据集各类情绪标注评论统计信息

Table 3 The Statistics of Labeled Comments of QQ Dataset表3 腾讯数据集各类情绪标注评论统计信息

为了验证标注的质量,从2个数据集中各自随机抽取了100条评论,并请1名审阅人(不是标注者)对评论进行标注.新浪数据集中,审阅人的判断与标注结果有91条相同,腾讯数据集中有94条相同,因此本文认为标注的质量满足实验要求.

本文只使用了中文的数据集,因为目前没有找到类似的带有用户情绪投票信息的英文在线新闻服务,但本文提出的模型可适用于任何语言的新闻服务.

3.2 评价指标

本文使用2种指标用于评价算法的效果:

1) 平均倒数排名(mean reciprocal rank,MRR)

(25)

2) 准确率accu@m

(26)

则对于整个数据集的accu@m可被定义为

(27)

3.3 对比方法

本文采用10折交叉验证的方式对提出的Bi-HSNN算法和下列方法在2个数据集上进行了实验,并将结果进行了比较和分析.

1) SVM+n-grams.将评论文本的切分成n-grams,并将其作为评论文本的特征,然后使用LIBLINEAR[27]训练SVM分类器.实验中n-grams中n的取值分别为1,2,3.

2) WE(word-emotion)[13].WE是一种基于情绪词典的生成模型,它首先建立词级别和话题级别的情绪词典,然后据此预测评论的情绪分类.

3) RPWM(reader perspective weighted model)[28].在RPWM中,单独计算每条评论的情绪熵,并据此为评论分配不同的权重.权重不同,评论对情绪预测结果的影响不同.

4) 标准CNN[8]与Bi-LSTM[25].作为目前情绪和语义分析领域最前沿的算法,CNN和Bi-LSTM在本文中也被作为基准算法进行效果比较.特别地,在对比实验中,标准CNN和Bi-HSNN的CNN模块一样,使用了窗口大小分别为3,4,5的卷积核.

5) CM(content-based model)与MCM(meta classification model)[11].这2种模型建立有监督的固定组合分类模型,并使用传统机器学习方法对评论的情绪进行标注.

6) Bi-HSNN为本文提出的算法.

3.4 实验效果对比

本节进行了3组对比实验,分别探究了本论文提出的算法在单信息源和多信息源情况下与SVM+n-grams,WE,RPWM等基准算法的性能差异及原因,并探究了多信息源的情绪标注是否能有效提高情绪标注的效果.

3.4.1 单信息源算法效果对比

本节实验用来比较只使用用户评论一种信息源时Bi-HSNN的效果.实验结果如表4和表5所示.

通过结果可以看出,基于SVM的方法即使几乎没有使用任何语义信息,仍然拥有很好的表现,几乎是除了Bi-HSNN之外效果最好的方法.但随着n的增大,n-grams特征变得越来越稀疏,对于新闻评论这种包含文字较少的短文本,数据稀疏问题更加明显.这也是用trigrams特征的SVM分类器在3个SVM分类器中效果最差的原因.本文尝试只考虑情绪词的方式来对特征进行降维,但结果并没有显著提高.

Table 4 Performance on Sina Dataset表4 新浪数据集上各方法的评论情绪标注性能

Table 5 Performance on QQ Dataset表5 腾讯数据集上各方法的评论情绪标注性能

WE通过建立情绪词典的方式对评论的情绪进行预测并取得了一定的效果,但是它也只是将评论文档看作词袋模型,并没有进一步考虑语义信息.RPWM是WE的一种改进,一方面通过LDA模型将情绪和话题结合起来;另一方面为每一条评论计算情绪熵,并将其作为权重赋予评论,评论根据其权重不同对预测结果的影响也不同,用这种方式来减小噪声评论对于预测的影响.然而实验结果表明:RPWM的结果并没有很明显的提升,原因在于本文所使用的数据集中,评论与评论之间并没有很大的差异.

CM使用评论文本中的情绪词作为特征,并使用L2逻辑斯蒂回归模型进行情绪标注.因为CM模型只考虑了文本中更有可能表现出情绪的词汇,因此它比上述算法拥有更好的效果.此外通过CM和WE,RPWM的对比可以看出,在情绪标注中,判别模型确实比生成模型拥有更好的效果.

标准CNN和Bi-LSTM的性能要大大优于上述大部分算法,因为它们考虑了文本的语义.实验结果说明:语义合成性原则确实对于语义和情绪的理解具有重要的意义.然而这2种方法在对句子间逻辑关系建模等方面仍有很大的改进空间.

本节所使用的Bi-HSNN为只使用评论文本情况下的版本.实验结果显示:Bi-HSNN性能优于上述所有对比算法,因为它不仅通过对句子内部的语义进行建模,而且对句子间的逻辑关系进行了建模.这使得Bi-HSNN拥有理解文档中复杂语义的能力.此外通过Bi-HSNN与CNN/Bi-LSTM的对比可以看出,句子间的逻辑关系确实能够帮助对整个文档的语义和情绪进行理解.

显著性检验表明:Bi-HSNN在置信级别为0.95的情况下性能优于其他所有基准算法.

3.4.2 多信息源算法效果对比

本节实验用来比较使用所有3种信息源的情况下,Bi-HSNN与SVM+n-grams,WE,RPWM等基准算法对比的效果.实验结果如表6和表7所示:

Table 6 Performance on Sina Dataset表6 新浪数据集上各方法的评论情绪标注性能

Table 7 Performance on QQ Dataset表7 腾讯数据集上各方法的评论情绪标注性能

SVM,CNN,Bi-LSTM根据Bi-HSNN的思想修改为多信息源模型,即将3种信息源的特征串联输入到分类器中.MCM本身就是CM的多信息源版本(但只使用了2种信息源),因此本文只对它进行了很小的改动.WE和RPWM为生成模型,因此无法被改造成多信息源版本,因此未被考虑.

Bi-HSNN为使用全部3种信息源时的版本.

实验结果表明:在使用全部3种信息源的情况下,Bi-HSNN与所有基准算法相比,仍然拥有最佳的效果.这再次印证了Bi-HSNN的多层次结构赋予它从句子内语义和句间语义2个角度对文本进行建模的能力.与其他方法相比,Bi-HSNN展现出其极强的语义表示与情绪挖掘能力.

显著性检验表明:Bi-HSNN在置信级别为0.95的情况下,性能优于其他所有基准算法.

3.4.3 多信息源效果分析

本节实验用于:1)证明是否每一种信息源对于用户评论的情绪标注都有帮助;2)评价使用不同信息源的Bi-HSNN的效果差异,实验结果如表8和表9所示:

Table 8 Performance on Sina Dataset表8 新浪数据集上不同信息源的评论情绪标注性能

Table 9 Performance on QQ Dataset表9 腾讯数据集上不同信息源的评论情绪标注性能

CC,CN,UEV表示Bi-HSNN分别只使用评论文本、新闻文本和用户情绪投票单信息源进行情绪标注.CC+CN,CC+UEV,CN+UEV使用2种信息源的组合作为特征;CC+CN+UEV使用全部3种信息源.

实验结果显示:CC在单信息源版本中拥有最优的效果,表明评论文本对于评论情绪的预测是最可靠最有效的信息源,这是因为评论就是本文所要进行情绪标注的客体.UEV的效果是第二优的,证明用户情绪投票可以为评论的情绪标注提供更多的信息,本文认为这是因为用户的投票比新闻文档本身能更直观地反映大众读者在阅读之后的情绪倾向.

通过实验结果也能看出,多信息源版本的Bi-HSNN性能普遍优于单信息源版本,说明不同信息源的组合确实比单一信息源更有效,而且每一种信息源都或多或少地对于评论的语义和情绪的理解有一定帮助.

最后CC+CN+UEV拥有最优的效果,这证明使用全部3种信息源确实比只使用一种或2种信息源更有效,每一种信息源都会为情绪标注提供一个不同的视角,分别在不同程度上帮助模型得到一个更好的预测结果.

显著性检验表明:CC+CN+UEV在置信区间为0.95的情况下,性能优于其他所有算法.

3.4.4 dropout效果分析

Fig. 5 Effect of dropout rate on single information source图5 单信息源不同dropout率的效果比较

本文使用dropout方法进行参数的正则化,用以消除模型过拟合的影响.本节实验用于探索dropout比率大小对情绪标注效果的影响.

由于在现实使用中dropout通常取值为p=0.5[26],因此本文将p=0.5当作基准,其他dropout率的效果通过accu@1相比p=0.5时的变化来衡量.实验表明,MRR与accu@2,accu@3的变化趋势和曲线与accu@1相同,因此实验结果只展示accu@1的变化.图5和图6中分别展示了本文单信息源和多信息源部分的dropout效果.

Fig. 6 Effect of dropout rate on multiple information sources图6 多信息源不同dropout率的效果比较

由图5和图6可以看出,根据数据集的不同,dropout率取0.1~0.7时都会对情绪标注的效果有一定的提升[10].在本文的实验中,dropout率选取为p=0.6.

4 总结与未来工作

本文提出在线新闻评论情绪标注问题,考虑在线新闻、新闻评论和用户投票信息,构建了基于多信息源的双向分层神经网络.建立能够对句内语义关系和句间逻辑关系建模的文档表示模型,并提出了多信息源的情绪标注方法,实验证明:本文提出的方法能够有效提高在线新闻评论情绪标注的准确度.

未来可以对更多的信息源进行分析,如新闻中的图片同样属于对读者情绪有重要影响的信息,或者对每一名用户的阅读习惯和情绪倾向进行建模,以提升预测的准确度.

[1]Domingos P. A few useful things to know about machine learning[J]. Communications of the ACM, 2012, 55(10): 78-87

[2]Hearst M A. Direction-based text interpretation as an information access refinement[G] //Text-based Intelligent Systems: Current Research and Practice in Information Extraction and Retrieval. Mahwah, NJ: Lawrence Erlbaum Associates, 1992: 257-274

[3]Zhao Yanyan, Qin Bing, Liu Ting. Sentiment analysis on text[J]. Journal of Software, 2010, 21(8): 1834-1848 (in Chinese)

(赵妍妍, 秦兵, 刘挺. 文本情感分析[J]. 软件学报, 2010, 21(8): 1834-1848)

[4]Liu Bing. Opinion mining and sentiment analysis[J]. Synthesis Lectures on Human Language Technologies, 2011, 2(2): 459-526

[5]Tang Duyu, Qin Bing, Liu Ting. Document modeling with gated recurrent neural network for sentiment classification[C] //Proc of the 2015 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2015: 1422-1432

[6]Tang Duyu, Qin Bing, Liu Ting. Learning semantic representations of users and products for document level sentiment classification[C] //Proc of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2015: 1014-1023

[7]Turney P D. Thumbs up or thumbs down?: Semantic orientation applied to unsupervised classification of reviews[C] //Proc of the 40th Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA: ACL, 2002: 417-424

[8]Bao Shenghua, Xu Shengliang, Zhang Li, et al. Joint emotion-topic modeling for social affective text mining[C] //Proc of the 9th IEEE Int Conf on Data Mining. Piscataway, NJ: IEEE, 2009: 699-704

[9]Bao Shenghua, Xu Shengliang, Zhang Li, et al. Mining social emotions from affective text[J]. IEEE Trans on Knowledge & Data Engineering, 2012, 24(9): 1658-1670

[10]Wu Haibing, Gu Xiaodong. Towards dropout training for convolutional neural networks[J]. Neural Networks, 2015, 71(11): 1-10

[11]Zhang Ying, Fang Yi, Quan Xiaojun, et al. Emotion tagging for comments of online news by meta classification with heterogeneous information sources[C] //Proc of the 35th Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2012: 1059-1060

[12]Zhang Ying, Zhang Ning, Si Luo, et al. Cross-domain and cross-category emotion tagging for comments of online news[C] //Proc of the 37th Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2014: 627-636

[13]Rao Yanghui, Lei Jingsheng, Liu Wenyin, et al. Building emotional dictionary for sentiment analysis of online news[J]. World Wide Web, 2014, 17(4): 723-742

[14]Hinton G E, Salakhutdinov R R. Reducing the dimen-sionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507

[15]Ranzato M A, Szummer M. Semi-supervised learning of compact document representations with deep networks[C] //Proc of the 25th Int Conf on Machine Learning. New York: ACM, 2008: 792-799

[16]Weston J, Ratle F, Collobert R. Deep learning via semi-supervised embedding[C] //Proc of the 25th Int Conf on Machine Learning. New York: ACM, 2012: 1168-1175

[17]Socher R, Pennington J, Huang E H, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions[C] //Proc of the 2011 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2011: 151-161

[18]Wang Chao, Zhang Ying, Jie Wei, et al. Hierarchical semantic representations of online news comments for emotion tagging using multiple information sources[C] //Proc of the 22nd Int Conf on Database Systems for Advanced Applications. Berlin: Springer, 2017: 121-136

[19]Frege G. Sense and reference[J]. Philosophical Review, 1948, 57(3): 238-241

[20]Kalchbrenner N, Grefenstette E, Blunsom P. A convolu-tional neural network for modelling sentences[OL]. (2014-08-08) [2016-01-23]. https://arxiv.org/abs/1404.2188

[21]Socher R, Perelygin A, Wu J Y, et al. Recursive deep models for semantic compositionality over a sentiment treebank[C] //Proc of the 2013 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2013: 1631-1642

[22]Mikolov T, Sutskever I, Chen Kai, et al. Distributed representations of words and phrases and their compositionality[C] //Proc of the 2013 Conf on Neural Information Processing Systems. Lake Tahoe: NIPS, 2013: 3111-3119

[23]Pennington J, Socher R, Manning C. Glove: Global vectors for word representation[C] //Proc of the 2014 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2014: 1532-1543

[24]Hochreiter S, Schmidhuber J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780

[25]Graves A, Schmidhuber J. Framewise phoneme classification with bidirectional LSTM and other neural network architectures[J]. Neural Networks, 2005, 18(5): 602-610

[26]Pham V, Bluche T, Kermorvant C, et al. Dropout improves recurrent neural networks for handwriting recognition[C] //Proc of the 14th Int Conf on Frontiers in Handwriting Recognition (ICFHR). Piscataway, NJ: IEEE, 2014: 285-290

[27]Fan Rongen, Chang Kaiwei, Hsieh C J, et al. LIBLINEAR: A library for large linear classification[J]. Journal of Machine Learning Research, 2008, 9(9): 1871-1874

[28]Li Xin, Rao Yanghui, Chen Yanjia, et al. Social emotion classification via reader perspective weighted model[C] //Proc of the 30th AAAI Conf on Artificial Intelligence. Menlo Park, CA: AAAI, 2016: 4230-4231

猜你喜欢
信息源文档语义
真实场景水下语义分割方法及数据集
浅谈Matlab与Word文档的应用接口
睡眠者效应
有人一声不吭向你扔了个文档
新媒体时代,记者如何正确使用信息源
Word文档 高效分合有高招
“吃+NP”的语义生成机制研究
Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
情感形容词‘うっとうしい’、‘わずらわしい’、‘めんどうくさい’的语义分析
汉语依凭介词的语义范畴