本发明涉及自然语言处理及人工智能技术领域,具体涉及一种评论文本观点信息处理方法、装置及存储介质。
背景技术:
社交网络(如博客、论坛或社会服务网络等)的发展产生了大量的用户参与的有价值的评论信息,这些评论信息反映了用户的各种情感色彩和倾向性,如喜、怒、哀、乐和批评、赞扬等。而随着评论信息的泛滥,一般的用户很难定位并识别自己感兴趣的内容并提取其中的观点。文本观点分析(又称情感分析、倾向性分析),作为自然语言处理中最活跃的研究领域之一,其目的就是通过总结和挖掘大众舆论对诸如产品、服务或组织等实体的观点、情感和态度,从而为组织者或潜在用户提供准确的决策。
当前技术中,主流的观点分析方法都是基于循环神经网络和注意力机制来识别观点上下文并提取语义特征的,虽然取得了不错的效果,但对于评论文本,模型的能力有限,导致分析出的观点准确度低,影响了用户体验。首先,评论文本中往往包含用户对同一评论实体不同特征/方面辩证的观点,这些观点的极性通常是相反的,因此需要对文本中所有的观点极性进行判断,仅使用注意力机制很难捕捉给定方面的观点上下文并量化其影响;其次,循环神经网络顺序地建模文本的上下文语义特征,这种处理方式忽略了文本的句法结构,因此很难对特定的方面及其上下文的依存关系进行建模,即当前普通神经网络模型特征提取能力有限,影响了观点分析的准确性。
技术实现要素:
本发明针对上述现有技术中一个或多个技术缺陷,提出了如下技术方案。
一种评论文本观点信息处理方法,该方法包括:
预处理步骤,对评论文本进行预处理得到该评论文本的低层语义表示;
编码步骤,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;
识别步骤,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络gat提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
更进一步地,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:
对所述评论文本进行分词处理后得到一词列表,通过词向量模型将所述词列表中的词语都转换文本向量e:
e=[w0,w1,…,wi,…,wn];
其中,
计算词列表中的方面词的位置向量p,p=(p2t(p),p2t-1(p)),其中,
其中,p2t(p)和p2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推;
将词向量e与位置向量p输入至双向门控循环单元bi-gru分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,
其中,
更进一步地,所述编码步骤的操作为:
将所述低层语义表示h转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果t:
其中,为
其中,使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;
其中,y∈rz×n为方面词的注意力矩阵,z为文本中包含的方面词个数,y中每一行向量即为给定方面词对文本所有词分配的注意力系数;i为单位矩阵;
更进一步地,所述识别步骤的操作为:构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,将所述给定方面词映射到所述句法依存树的给定方面节点,使用所述gat网络提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态;
其中,
则:
h(l|+1)=gat(h(l),a;θ(l))
其中,a为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;θ(l)为第l层的网络参数;
使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
5.根据权利要求4所述的方法,其特征在于,基于多个方面的分类结果、l2正则和注意力正则计算损失来指导所述gat网络的训练,j为给定方面节点,r为gat网络的层数,则有:
其中,
本发明还提出了一种评论文本观点信息处理装置,该装置包括:
预处理单元,对评论文本进行预处理得到该评论文本的低层语义表示;
编码单元,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;
识别单元,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络gat提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
更进一步地,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:
对所述评论文本进行分词处理后得到一词列表,通过词向量模型将所述词列表中的词语都转换文本向量e:
e=[w0,w1,…,wi,…,wn];
其中,
计算词列表中的方面词的位置向量p,p=(p2t(p),p2t-1(p)),其中,
其中,p2t(p)和p2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推;
将词向量e与位置向量p输入至双向门控循环单元bi-gru分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,
其中,
更进一步地,所述编码单元执行的操作为:
将所述低层语义表示h转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果t:
其中,为
其中,使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;
其中,y∈rz×n为方面词的注意力矩阵,z为文本中包含的方面词个数,y中每一行向量即为给定方面词对文本所有词分配的注意力系数;i为单位矩阵;
更进一步地,所述识别单元执行的操作为:构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,将所述给定方面词映射到所述句法依存树的给定方面节点,使用所述gat网络提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态;
其中,
则:
h(l|+1)=gat(h(l),a;θ(l))
其中,a为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;θ(l)为第l层的网络参数;
使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
更进一步地,基于多个方面的分类结果、l2正则和注意力正则计算损失来指导所述gat网络的训练,j为给定方面节点,r为gat网络的层数,则有:
其中,
本发明还提出了一种计算机可读存储介质,所述存储介质上存储有计算机程序代码,当所述计算机程序代码被计算机执行时执行上述之任一的方法。
本发明的技术效果在于:本发明的一种评论文本观点信息处理方法,方法包括:预处理步骤,对评论文本进行预处理得到该评论文本的低层语义表示;编码步骤,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;识别步骤,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络gat提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。本发明中,不仅生成了将词向量e,还生成了方面词的位置向量p,使用二者分别获取所述评论文本前、后向的隐藏状态并进行拼接,即在语义分析时不仅考虑词本身的含义,还考虑上下文的关联含义,并根据距离确定上下文的关联关系,使得观点分析的结论更为客观,提高了观点分析的准确度,本发明中使用gat网络以更好的捕捉词级特征中的依存关系,同时,考虑到文本中影响不同方面观点极性的上下文应该弱相关,因此引入使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配,从而,提高了观点分析准确性,本发明使用句法依存树将文本抽象的句法结构显式地表现出来,直观上加强了词与词之间的关联,并使用gat更好的捕捉词级特征中的依存关系;同时,考虑到注意力机制很难处理评论文本中重叠的观点极性特征,引入注意力正则作为损失项来分离重叠特征,并通过更丰富的网络结构和多层注意力机制迭代地更新注意力系数,改善模型对于给定方面的观点上下文的识别和特征的提取,有效地提高了观点分类的效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显。
图1是根据本发明的实施例的一种评论文本观点信息处理方法的流程图。
图2是根据本发明的实施例的一种评论文本观点信息处理装置的结构图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了本发明的一种评论文本观点信息处理方法,该方法包括:
预处理步骤s101,对评论文本进行预处理得到该评论文本的低层语义表示。
在一个实施例中,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:
对所述评论文本进行分词处理后得到一词列表,在分词之前,根据需要可以对评论文本进行去停用词、去噪声等处理,然后通过词向量模型将所述词列表中的词语都转换文本向量e:
e=[w0,w1,…,wi,…,wn];
其中,
其中,p2t(p)和p2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推,t=1、2、3……;
将词向量e与位置向量p输入至双向门控循环单元bi-gru分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,
其中,
本发明中,不仅生成了将词向量e,还生成了方面词的位置向量p,使用二者分别获取所述评论文本前、后向的隐藏状态并进行拼接,即在语义分析时不仅考虑词本身的含义,还考虑上下文的关联含义,并根据距离确定上下文的关联关系,使得观点分析的结论更为客观,提高了观点分析的准确度,这是本发明的一个重要发明点。
编码步骤s102,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果。
在一个实施例中,获取文本的低层语义表示后,使用自注意力机制来量化词级特征间的语义关系,并对上下文的局部语义特征进行编码。所述编码步骤的操作为:
将所述低层语义表示h转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果t:
其中,为
由于文本中影响不同方面观点极性的上下文应该弱相关,则在gat网络学习的过程中,不同方面应该关注不同局部的上下文,因此引入使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;
其中,y∈rz×n为方面词的注意力矩阵,z为文本中包含的方面词个数,y中每一行向量即为给定方面词对文本所有词分配的注意力系数;i为单位矩阵;
上述实施例中使用gat网络以更好的捕捉词级特征中的依存关系,同时,考虑到文本中影响不同方面观点极性的上下文应该弱相关,因此引入使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配,从而,提高了观点分析准确性,这是本发明的另一个重要发明点。
识别步骤s103,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络gat提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
在一个实施例,构建文本的句法依存树,树上的节点和边分别是文本中词及其依存关系的映射,树上任意节点都可以使用映射词的局部语义编码初始化,即
其中,
则有:
h(l|+1)=gat(h(l),a;θ(l))
其中,a为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;θ(l)为第l层的网络参数;
使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
本发明中,gat网络在使用前需要对其进行训练,本发明中,基于多个方面的分类结果
其中,
gat模型的训练需要预设网络参数,包括词向量维度、位置向量维度、线性或非线性变换涉及的转换维度以及调节模型训练的各类超参数,训练过程使用但不限于sgd、adam等算法进行优化,并使用相关方法防止过拟合。训练好的模型可以对评论文本中包含的特定方面的观点进行分析和判断,并得到观点的概率分布。
本发明使用句法依存树将文本抽象的句法结构显式地表现出来,直观上加强了词与词之间的关联,并使用gat更好的捕捉词级特征中的依存关系;同时,考虑到注意力机制很难处理评论文本中重叠的观点极性特征,引入注意力正则作为损失项来分离重叠特征,并通过更丰富的网络结构和多层注意力机制迭代地更新注意力系数,改善模型对于给定方面的观点上下文的识别和特征的提取,有效地提高了观点分类的效果,这是本发明的重要发明点。
图2示出了本发明的一种评论文本观点信息处理装置,该装置包括:
预处理单元201,对评论文本进行预处理得到该评论文本的低层语义表示。
在一个实施例中,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:
对所述评论文本进行分词处理后得到一词列表,在分词之前,根据需要可以对评论文本进行去停用词、去噪声等处理,然后通过词向量模型将所述词列表中的词语都转换文本向量e:
e=[w0,w1,…,wi,…,wn];
其中,
其中,p2t(p)和p2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推,t=1、2、3……;
将词向量e与位置向量p输入至双向门控循环单元bi-gru分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,
其中,
本发明中,不仅生成了将词向量e,还生成了方面词的位置向量p,使用二者分别获取所述评论文本前、后向的隐藏状态并进行拼接,即在语义分析时不仅考虑词本身的含义,还考虑上下文的关联含义,并根据距离确定上下文的关联关系,使得观点分析的结论更为客观,提高了观点分析的准确度,这是本发明的一个重要发明点。
编码单元202,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果。
在一个实施例中,获取文本的低层语义表示后,使用自注意力机制来量化词级特征间的语义关系,并对上下文的局部语义特征进行编码。所述编码单元的操作为:
将所述低层语义表示h转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果t:
其中,为
由于文本中影响不同方面观点极性的上下文应该弱相关,则在gat网络学习的过程中,不同方面应该关注不同局部的上下文,因此引入使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;
其中,y∈rz×n为方面词的注意力矩阵,z为文本中包含的方面词个数,y中每一行向量即为给定方面词对文本所有词分配的注意力系数;i为单位矩阵;
上述实施例中使用gat网络以更好的捕捉词级特征中的依存关系,同时,考虑到文本中影响不同方面观点极性的上下文应该弱相关,因此引入使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配,从而,提高了观点分析准确性,这是本发明的另一个重要发明点。
识别单元203,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络gat提取给定方面节点的子树的句法特征,在gat网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
在一个实施例,构建文本的句法依存树,树上的节点和边分别是文本中词及其依存关系的映射,树上任意节点都可以使用映射词的局部语义编码初始化,即
其中,
则有:
h(l|+1)=gat(h(l),a;θ(l))
其中,a为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;θ(l)为第l层的网络参数;
使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。
本发明中,gat网络在使用前需要对其进行训练,本发明中,基于多个方面的分类结果
其中,
gat模型的训练需要预设网络参数,包括词向量维度、位置向量维度、线性或非线性变换涉及的转换维度以及调节模型训练的各类超参数,训练过程使用但不限于sgd、adam等算法进行优化,并使用相关装置防止过拟合。训练好的模型可以对评论文本中包含的特定方面的观点进行分析和判断,并得到观点的概率分布。
本发明使用句法依存树将文本抽象的句法结构显式地表现出来,直观上加强了词与词之间的关联,并使用gat更好的捕捉词级特征中的依存关系;同时,考虑到注意力机制很难处理评论文本中重叠的观点极性特征,引入注意力正则作为损失项来分离重叠特征,并通过更丰富的网络结构和多层注意力机制迭代地更新注意力系数,改善模型对于给定方面的观点上下文的识别和特征的提取,有效地提高了观点分类的效果,这是本发明的重要发明点。
本发明的为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的装置。
最后所应说明的是:以上实施例仅以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应当理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。