基于动态多跳图注意力网络的谣言检测方法及系统

文档序号:30666338发布日期:2022-07-06 03:08阅读:208来源:国知局

1.本发明属于自然语言处理领域,具体涉及一种基于动态多跳图注意力网络的谣言检测方法及系统。


背景技术:

2.随着移动互联网的发展,社交媒体在给我们带来学习、生活便利的同时,也不可避免地加速了谣言的扩散。网络谣言的泛滥不仅对人们的生产生活造成严重的干扰,也在一定程度上摧毁社会信任体系,给社会造成严重的负面影响。尽管各个媒体机构加强了对谣言的监控并且开通了辟谣平台,但这些措施需要耗费大量的人力物力来收集信息以验证消息的真实性,同时存在时间滞后、信息覆盖不全、事件反转等问题。因此有必要在谣言早期进行自动化的检测。
3.谣言检测任务为二分类问题,即判断某个事件或某条推文为“谣言”或者“非谣言”,现有的研究工作可分为两类方法:一种是传统机器学习方法,一种是深度学习方法。传统机器学习方法主要通过构造或选取合适的特征,如文本内容和社交网络相关的信息,然后利用朴素贝叶斯、决策树、支持向量机等浅层算法进行谣言检测。虽然特征工程提升了谣言检测的性能,但在特征选择上费时费力,且由于特征选取具有很强的主观性,很容易被谣言的制造者刻意规避。近年来,深度学习在自然语言处理、图像分类等领域表现出优越的性能,因此研究人员将深度学习模型应用到谣言检测任务中,用以自动学习谣言所隐含的深层特征。深度学习模型主要基于卷积神经网络cnn、循环神经网络 rnn与图神经网络gnn。卷积神经网络只能抽取文本的局部信息,对于长文本表现不佳。循环神经网络则存在梯度消失的问题。图神经网络优势在于建模多个帖子之间的关系,通过其邻域有效地学习每个结点的表示,从而提升模型对帖子更深层次特征的学习能力。但谣言的产生和传播是一个动态的过程,现有的图神经网络模型多为静态图神经网络模型。静态图神经网络只进行一次的构建,所有的帖子构成的结点和帖子关系构成的边都是固定的,无法应对由于帖子的增加带来交互关系的改变。同时,以往的方法对于用户信息只做简单的信息提取,而忽略了用户关系网络的结构特征,如由用户行为形成的关系网络等。由于社交媒体中用户数量较多,用户间行为生成的图容易存在边稀疏的问题,因此对用户进行建模的方法需要克服边的稀疏性来提取有效的信息。此外在社交媒体中转发帖子占据较大比例,由于转发帖子本身不携带额外的文本信息,现有的研究往往选择忽视,但对于转发帖子而言,其中的用户信息是转发帖子与源帖子的重要区别,忽视转发帖子将导致无法充分提取帖子的用户特征,同时也会造成在图神经网络中传播路径等关键信息的丢失。


技术实现要素:

4.本发明的目的在于提供一种基于动态多跳图注意力网络的谣言检测方法及系统,该方法及系统有利于提高谣言检测的准确性。
5.为实现上述目的,本发明采用的技术方案是:一种基于动态多跳图注意力网络的
谣言检测方法,包括以下步骤:
6.步骤a:提取已知事件下的帖子的用户信息、回复信息及帖子间的转发或评论关系,并标注每个事件是否为谣言,构建训练集s;
7.步骤b:使用训练集s训练基于动态多跳图注意力网络的深度学习网络模型g,用于分析每个事件是否为谣言;
8.步骤c:将提取的用户信息、回复信息和帖子间关系与帖子的文本信息一起输入到训练后的深度学习网络模型g中,得到对每个事件是否为谣言的预测。
9.进一步地,所述步骤b具体包括以下步骤:
10.步骤b1:对训练集s中的每个帖子进行编码,得到事件下每个帖子的文本编码s、帖子间的关系矩阵r;
11.步骤b2:对训练集s中的用户信息进行编码,用矩阵x表示用户的基本信息特征,用邻接矩阵a表示用户的行为特征,输入到图卷积网络中,学习并提取用户间深层次关系,得到用户编码的图卷积表征向量u;
12.步骤b3:对训练集s中的回复信息进行编码,将每条回复表征向量xij输入到注意力网络中,使用两个额外的参数学习回复的结构信息;从帖子回复信息中学习评论树信息,得到评论树表征向量c;
13.步骤b4:对每个帖子的文本编码s及对应的用户编码u和评论树编码c进行融合拼接,得到该帖子的表征向量h;同时通过固定帖子数量的方式对帖子进行分组处理;
14.步骤b5:将每一组的帖子向量ti输入到多跳图注意力网络中,先利用帖子间的关系计算单跳注意力得分,再利用图扩散的方式计算多跳注意力得分,更新帖子表征向量;提取每一组的源帖子的表征向量e;
15.步骤b6:利用dot-productattention计算每组向量之间的相关度,引入掩码m,确保对组次i的预测仅依赖于组次i之前的输出,而不依赖于组次i之后的输出;使用 softmax函数对输出向量进行归一化;根据目标损失函数loss,利用反向传播方法计算深度学习网络模型g中各参数的梯度,并利用随机梯度下降方法更新参数;
16.步骤b7:当深度学习网络模型g产生的损失值迭代变化小于设定阈值或者达到最大迭代次数,终止深度学习网络模型g的训练。
17.进一步地,所述步骤b1具体包括以下步骤:
18.步骤b11:遍历训练集s,s中训练样本表示为s=(p,y),其中p表示帖子集,y 表示谣言检测的极性,谣言检测的极性包括{非谣言、谣言、真实传闻以及未经验证的传闻};对帖子集p中每个帖子p使用预先训练好的分布式表示的词向量;词语索引xi通过词表找到对应的独热编码vi,再通过预训练的词向量转化为wi,表示为:
19.wi=wvi20.其中,vi为词语索引xi在词表中的独热编码,w是d维的词向量矩阵;
21.步骤b12:将转换后的词向量作为text-cnn的输入;利用具有不同窗口的过滤器,捕捉不同粒度的特征以提取文本特征;对于帖子文本内容中的第i个词,相应的k维的词嵌入表征为因此具有n个单词的句子表征为:
22.23.其中,是连接运算符,窗口大小为h卷积滤波器将句子中h个单词的连续序列作为输入并输出一个特征,对于从第i个单词开始的h个单词的连续序列,滤波器操作表示为:
24.si=relu(wcs
i:i+h-1
)
25.其中,wc表示过滤器参数;然后获得该句子的特征表示:
26.s=[s1,s2,...,sn]。
[0027]
进一步地,所述步骤b2具体包括以下步骤:
[0028]
步骤b21:遍历训练集s,提取训练集中每个帖子对应的用户,构造用户特征矩阵 u表示所有用户节点的特征,特征包括用户的个人信息和社交信息;其中n表示为用户的个数,m表示用户特征矩阵的维度,矩阵的每一行都表示为一个用户的特征向量;使用邻接矩阵a及其度矩阵d表示用户的边;当用户a与用户b有转发、评论关系或讨论同一帖子时a
ab
=1,如果用户a与用户b没有任何交集时a
ab
=0;度矩阵d 由特征向量组成,有d
ij
=∑
jaij

[0029]
步骤b22:利用用户特征矩阵u和邻接矩阵a进行图卷积操作;对于单次卷积,特征矩阵有:
[0030]
l
(1)
=δ(auw0)
[0031]
其中l
(0)
=x,a是邻接矩阵,w0是权重矩阵;δ是一个激活函数,对于多次卷积,节点矩阵的更新方式如下:
[0032]
l
(j+1)
=δ(aljwj)
[0033]
其中j表示卷积层的数量。
[0034]
进一步地,所述步骤b3具体包括以下步骤:
[0035]
步骤b31:遍历训练集s,提取每个帖子下对应的回复,回复之间构成评论树,采用transformer模型学习回复之间的依赖关系;transformer的每一层都包含一个 self-attention子层和一个前馈子层,其中self-attention层架构推导如下:
[0036][0037]
其中序列中i和j元素的注意力权重通过i的query与j的key来计算得到;
[0038]
步骤b32:将每个位置的value聚合起来得到位置i的输出,有:
[0039][0040]
步骤b33:每个评论回复使用该评论文本的词嵌入向量表示,首先对每个评论回复 xi进行max-pooling来获得其句子表示x'i;接着将评论句子表示序列x'=(x'1,x'2,...,x'm) 通过s个mha层来建模推文之间的交互;通过这些mha层以后得到输出u= (u1,u2,...,um),最后通过注意力机制聚合这些输出并使用全连接层进行连接;
[0041]
αk=softmax(γ
t
uk)
[0042]
[0043]
其中,k是类的个数,v是x的表示向量;
[0044]
步骤b34:添加和两个额外的学习参数,用于表示代表回复之间的关系,有:
[0045][0046][0047]
进一步地,所述步骤b4具体包括以下步骤:
[0048]
步骤b41:将步骤2、步骤3、步骤4提取到的文本特征s、用户特征u和评论树特征c拼接在一起作为融合特征并称之为帖子特征;考虑到文本、用户、评论特征三者的贡献程度不同,对文本特征、用户特征及评论特征进行注意力权重的训练,用于增强某一特征的表示;
[0049]
α=σ2(σ1(s,u,c);θ1);θ2)
[0050]
此外,使用注意力增加1的方式保证特征不丢失;训练和融合表示的计算如下:
[0051]
h=(α
t
+1)[s,u,c]
[0052]
步骤b42:按照等数量帖子的方式,对谣言事件的时间序列数据进行划分;每个事件ei,包含源帖子hr与该事件相关的其他帖子h
ij
;由于不同的事件具有不同的帖子数量和时间跨度,因此不同事件中每个阶段帖子的数量的大小也各不相同;首先统计该事件中的帖子数量和事件相关帖子起止时间,采用归一化对时间进行处理,计算分成τ个时间间隔后每个事件间隔所需帖子数量;然后将根据每个帖子时间,将帖子分到对应的时间间隔中;另外,将源帖子与每个时间间隔新增帖子路径上的帖子也纳入其中,每个时间间隔可以看作事件的一个阶段,每个事件的阶段表示为:
[0053]
ti={h
i1
,h
i2
,...,h
ik
,hr,h

}。
[0054]
进一步地,所述步骤b5具体包括以下步骤:
[0055]
步骤b51:将步骤4得到的向量集ti输入到多跳图注意力网络中,引入注意力扩散算子,其表示为一个三元组(vi,e
ij
,vj),计算直接相连的边的注意力得分在利用注意力扩散计算没有直接相连的结点对之间的注意力得分值;
[0056][0057]
其中,l表示为层数,wh、w
t
、we为可训练的权重矩阵,hi、hj为输入结点的向量表示;
[0058]
步骤b52:将注意力扩散算子应用到图中的每一条边后,得到其注意力得分,其中无直接相连的边的注意力得分为负无穷;
[0059][0060]
步骤b53:将步骤b52得到的结果进行归一化得到:
[0061]a(l)
=softmax(s
(l)
)
[0062]
其中,a
(l)
表示结点j向结点i聚集信息时,在第l层的注意力得分;
[0063]
步骤b54:使用图扩散计算多跳邻居关系的注意力得分,有:
[0064][0065]
其中,θi=α(1-α)i,α∈(0,1],α为偏执扩散参数;特征聚合的图注意力扩散定义如下:
[0066]
attdiffusion(g,h
l
,θ)=ah
l
[0067]
z0=h
l
[0068]zk+1
=(1-α)azk+αz0[0069]
其中,通过定义一个数列zk简化计算,当k

∞时,该数列收敛到ah
l
的值,达到图扩散的目的;
[0070]
步骤b55:将步骤b54得到的结果输入到两个完全连接的前馈子层,在两个子层中添加层规范化和残差连接:
[0071][0072][0073]
进一步地,所述步骤b6具体包括以下步骤:
[0074]
步骤b61:将每组经过注意力扩散得到的源帖子向量表示取出h'={h1,h2,...,h
τ
},其中τ为分组的数量;利用dot-productattention计算向量之间的相关度,此外引入掩码 m,确保对组次i的预测仅依赖于组次i之前的输出,而不依赖于组次i之后的输出;
[0075][0076][0077]
步骤b62:使用交叉熵作为损失函数计算损失值,通过adam优化算法进行学习率的更新,利用反向传播迭代更新模型参数,以最小化损失函数来训练模型,交叉熵损失函数如下:
[0078][0079]
其中,|c|是谣言检测极性类别的数量,yi是由one-hot向量表示的谣言检测极性,yi是通过分类层计算获得的谣言检测极性概率分布,λ是l2正则化项的系数,θ是可训练参数的集合,模型采用dropout策略以避免过拟合。
[0080]
本发明还提供了一种采用上述方法的谣言检测系统,包括:
[0081]
数据收集模块,用于提取每个事件下的帖子的用户信息、回复信息及帖子间的转发或评论关系,并标注每个事件是否为谣言,构建训练集;
[0082]
预处理模块,用于对训练集中的训练样本进行预处理,包括分词处理、去除停用词;
[0083]
编码模块,用于对帖子的文本信息、用户信息、评论信息进行编码,得到相对应的文本编码、用户编码、评论树编码的表征向量,并进行拼接融合;
[0084]
网络训练模块,用于将编码模块得到的帖子向量输入到深度学习网络中,通过图
扩散得到各阶段的源帖子表征向量并以此训练深度学习网络,利用该表征向量属于某一类别的概率以及训练集中的标注作为损失,以最小化损失为目标来对整个深度学习网络进行训练,得到基于动态多跳图注意力网络的谣言检测模型;以及
[0085]
谣言检测模块,提取谣言检测输入的文本、用户及评论信息,之后利用训练好的基于动态多跳图注意力网络的谣言检测模型对输入的帖子相关信息进行分析处理,输出谣言检测的极性。
[0086]
与现有技术相比,本发明具有以下有益效果:本发明使用图卷积网络对用户信息进行编码,使用transformer对评论信息进行编码,然后对文本编码、用户编码和评论树编码进行拼接融合,同时通过动态分组的方式输入到多跳图神经网络层,采用图扩散的方式得到多跳邻居的注意力权重,能够充分学习到帖子在传播过程中的时序特征和帖子间的结构特征,有效提高谣言检测分类的准确性。
附图说明
[0087]
图1是本发明实施例的方法实现流程图;
[0088]
图2是本发明实施例中模型架构图;
具体实施方式
[0089]
下面结合附图及实施例对本发明做进一步说明。
[0090]
应该指出,以下详细说明都是示例性的,旨在对本技术提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本技术所属技术领域的普通技术人员通常理解的相同含义。
[0091]
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本技术的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和 /或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
[0092]
如图1所示,本实施例提供了一种基于动态多跳图注意力网络的谣言检测方法,包括以下步骤:
[0093]
步骤a:提取已知事件下的帖子的用户信息、回复信息及帖子间的转发或评论关系,并标注每个事件是否为谣言,构建训练集s。
[0094]
步骤b:使用训练集s训练基于动态多跳图注意力网络的深度学习网络模型g,用于分析每个事件是否为谣言。本实施例中,深度学习网络模型架构如图2所示。
[0095]
所述步骤b具体包括以下步骤:
[0096]
步骤b1:对训练集s中的每个帖子进行编码,得到事件下每个帖子的文本编码s、帖子间的关系矩阵r。
[0097]
在本实施例中,所述步骤b1具体包括以下步骤:
[0098]
步骤b11:遍历训练集s,s中训练样本表示为s=(p,y),其中p表示帖子集,y 表示谣言检测的极性,谣言检测的极性包括{非谣言、谣言、真实传闻以及未经验证的传闻}。对帖子集p中每个帖子p使用预先训练好的分布式表示的词向量。词语索引xi通过词表找到对应的独热编码vi,再通过预训练的词向量转化为wi,表示为:
[0099]
wi=wvi[0100]
其中,vi为词语索引xi在词表中的独热编码,w是d维的词向量矩阵。
[0101]
步骤b12:将转换后的词向量作为text-cnn的输入。利用具有不同窗口的过滤器,捕捉不同粒度的特征以提取文本特征。对于帖子文本内容中的第i个词,相应的k维的词嵌入表征为因此具有n个单词的句子表征为:
[0102][0103]
其中,是连接运算符,窗口大小为h卷积滤波器将句子中h个单词的连续序列作为输入并输出一个特征,为了清晰地显示该过程,以从第i个单词开始的h个单词的连续序列为例,滤波器操作表示为:
[0104]
si=relu(wcs
i:i+h-1
)
[0105]
其中,wc表示过滤器参数。过滤器也可以应用于其他单词。然后获得该句子的特征表示:
[0106]
s=[s1,s2,...,sn]。
[0107]
步骤b2:对训练集s中的用户信息进行编码,用矩阵x表示用户的基本信息特征,用邻接矩阵a表示用户的行为特征,输入到图卷积网络中,学习并提取用户间深层次关系,得到用户编码的图卷积表征向量u。
[0108]
在本实施例中,所述步骤b2具体包括以下步骤:
[0109]
步骤b21:遍历训练集s,提取训练集中每个帖子对应的用户,构造用户特征矩阵 u表示所有用户节点的特征,特征包括用户的个人信息和社交信息等内容,比如用户的昵称、是否经过认证、关注数量、粉丝数量、注册时间等信息。其中n表示为用户的个数,m表示用户特征矩阵的维度,矩阵的每一行都表示为一个用户的特征向量。使用邻接矩阵a及其度矩阵d表示用户的边。当用户a与用户b有转发、评论关系或讨论同一帖子时a
ab
=1,如果用户a与用户b没有任何交集时a
ab
=0。度矩阵d由特征向量组成,有d
ij
=∑
jaij

[0110]
步骤b22:利用用户特征矩阵u和邻接矩阵a进行图卷积操作。对于单次卷积,特征矩阵有:
[0111]
l
(1)
=δ(auw0)
[0112]
其中l
(0)
=x,a是邻接矩阵,w0是权重矩阵。δ是一个激活函数,通常选择relu 作为激活函数,对于多次卷积,节点矩阵的更新方式如下:
[0113]
l
(j+1)
=δ(al
(j)
wj)
[0114]
其中j表示卷积层的数量。
[0115]
步骤b3:对训练集s中的回复信息进行编码,将每条回复表征向量x
ij
输入到注意力网络中,使用两个额外的参数学习回复的结构信息。从帖子回复信息中学习评论树信息,得到评论树表征向量c。
[0116]
在本实施例中,所述步骤b3具体包括以下步骤:
[0117]
步骤b31:遍历训练集s,提取每个帖子下对应的回复,回复之间构成评论树,采用transformer模型学习回复之间的依赖关系。transformer的每一层都包含一个 self-attention子层和一个前馈子层,其中self-attention层架构推导如下:
[0118][0119]
其中序列中i和j元素的注意力权重通过i的query与j的key来计算得到。
[0120]
步骤b32:将每个位置的value聚合起来得到位置i的输出,有:
[0121][0122]
步骤b33:每个评论回复使用该评论文本的词嵌入向量表示,首先对每个评论回复 xi进行max-pooling来获得其句子表示x'i。接着将评论句子表示序列x'=(x'1,x'2,...,x'm) 通过s个mha层来建模推文之间的交互。通过这些mha层以后得到输出u= (u1,u2,...,um),最后通过注意力机制聚合这些输出并使用全连接层进行连接。
[0123]
αk=softmax(γ
t
uk)
[0124][0125]
其中,k是类的个数,v是x的表示向量。
[0126]
步骤b34:添加和两个额外的学习参数,用于表示代表回复之间的关系,有:
[0127][0128][0129]
步骤b4:对每个帖子的文本编码s及对应的用户编码u和评论树编码c进行融合拼接,得到该帖子的表征向量h。同时通过固定帖子数量的方式对帖子进行分组处理。
[0130]
在本实施例中,所述步骤b4具体包括以下步骤:
[0131]
步骤b41:将步骤2、步骤3、步骤4提取到的文本特征s、用户特征u和评论树特征c拼接在一起作为融合特征并称之为帖子特征。考虑到文本、用户、评论特征三者的贡献程度不同,对文本特征、用户特征及评论特征进行注意力权重的训练,用于增强某一特征的表示。
[0132]
α=σ2(σ1(s,u,c);θ1);θ2)
[0133]
此外,使用注意力增加1的方式保证特征不丢失。训练和融合表示的计算如下:
[0134]
h=(α
t
+1)[s,u,c]
[0135]
步骤b42:按照等数量帖子的方式,对谣言事件的时间序列数据进行划分。每个事件ei,包含源帖子hr与该事件相关的其他帖子h
ij
。由于不同的事件具有不同的帖子数量和时间跨度,因此不同事件中每个阶段帖子的数量的大小也各不相同。首先统计该事件中的帖子数量和事件相关帖子起止时间,采用归一化对时间进行处理,计算分成τ个时间间隔后每个事件间隔所需帖子数量。然后将根据每个帖子时间,将帖子分到对应的时间间隔中。另外,将源帖子与每个时间间隔新增帖子路径上的帖子也纳入其中,每个时间间隔可以看作事件的一个阶段,每个事件的阶段表示为:
[0136]
ti={h
i1
,h
i2
,...,h
ik
,hr,h

}。
[0137]
步骤b5:将每一组的帖子向量ti输入到多跳图注意力网络中,先利用帖子间的关系计算单跳注意力得分,再利用图扩散的方式计算多跳注意力得分,更新帖子表征向量。提取每一组的源帖子的表征向量e。
[0138]
在本实施例中,所述步骤b5具体包括以下步骤:
[0139]
步骤b51:将步骤4得到的向量集ti输入到多跳图注意力网络中,引入注意力扩散算子,其表示为一个三元组(vi,e
ij
,vj),计算直接相连的边的注意力得分在利用注意力扩散计算没有直接相连的结点对之间的注意力得分值。
[0140][0141]
其中,l表示为层数,wh、w
t
、we为可训练的权重矩阵,hi、hj为输入结点的向量表示。
[0142]
步骤b52:将注意力扩散算子应用到图中的每一条边后,得到其注意力得分,其中无直接相连的边的注意力得分为负无穷。
[0143][0144]
步骤b53:将步骤b52得到的结果进行归一化得到:
[0145]a(l)
=softmax(s
(l)
)
[0146]
其中,a
(l)
表示结点j向结点i聚集信息时,在第l层的注意力得分。
[0147]
步骤b54:使用图扩散计算多跳邻居关系的注意力得分,有:
[0148][0149]
其中,θi=α(1-α)i,α∈(0,1],α为偏执扩散参数。特征聚合的图注意力扩散定义如下:
[0150]
attdiffusion(g,h
l
,θ)=ah
l
[0151]
z0=h
l
[0152]zk+1
=(1-α)azk+αz0[0153]
其中,通过定义一个数列zk简化计算,当k

∞时,该数列能收敛到ah
l
的值,达到图扩散的目的。
[0154]
步骤b55:将步骤b54得到的结果输入到两个完全连接的前馈子层,在两个子层中添加层规范化和残差连接:
[0155][0156][0157]
步骤b6:利用dot-productattention计算每组向量之间的相关度,引入掩码m,确保对组次i的预测仅依赖于组次i之前的输出,而不依赖于组次i之后的输出。使用 softmax函数对输出向量进行归一化。根据目标损失函数loss,利用反向传播方法计算深度学习网络模型g中各参数的梯度,并利用随机梯度下降方法更新参数。
[0158]
在本实施例中,所述步骤b6具体包括以下步骤:
[0159]
步骤b61:将每组经过注意力扩散得到的源帖子向量表示取出h'={h1,h2,...,hτ
},其中τ为分组的数量。利用dot-productattention计算向量之间的相关度,此外引入掩码 m,确保对组次i的预测仅依赖于组次i之前的输出,而不依赖于组次i之后的输出。
[0160][0161][0162]
步骤b62:使用交叉熵作为损失函数计算损失值,通过adam优化算法进行学习率的更新,利用反向传播迭代更新模型参数,以最小化损失函数来训练模型,交叉熵损失函数如下:
[0163][0164]
其中,|c|是谣言检测极性类别的数量,yi是由one-hot向量表示的谣言检测极性,yi是通过分类层计算获得的谣言检测极性概率分布,λ是l2正则化项的系数,θ是可训练参数的集合,模型采用dropout策略以避免过拟合。
[0165]
步骤b7:当深度学习网络模型g产生的损失值迭代变化小于设定阈值或者达到最大迭代次数,终止深度学习网络模型g的训练。
[0166]
步骤c:将提取的用户信息、回复信息和帖子间关系与帖子的文本信息一起输入到训练后的深度学习网络模型g中,得到对每个事件是否为谣言的预测。
[0167]
本实施例还提供了一种采用上述方法的谣言检测系统,包括:数据收集模块、预处理模块、编码模块、网络训练模块和谣言检测模块。
[0168]
所述数据收集模块用于提取每个事件下的帖子的用户信息、回复信息及帖子间的转发或评论关系,并标注每个事件是否为谣言,构建训练集。
[0169]
所述预处理模块用于对训练集中的训练样本进行预处理,包括分词处理、去除停用词。
[0170]
所述编码模块用于对帖子的文本信息、用户信息、评论信息进行编码,得到相对应的文本编码、用户编码、评论树编码的表征向量,并进行拼接融合。
[0171]
所述网络训练模块用于将编码模块得到的帖子向量输入到深度学习网络中,通过图扩散得到各阶段的源帖子表征向量并以此训练深度学习网络,利用该表征向量属于某一类别的概率以及训练集中的标注作为损失,以最小化损失为目标来对整个深度学习网络进行训练,得到基于动态多跳图注意力网络的谣言检测模型。
[0172]
所述谣言检测模块用于提取谣言检测输入的文本、用户及评论信息,之后利用训练好的基于动态多跳图注意力网络的谣言检测模型对输入的帖子相关信息进行分析处理,输出谣言检测的极性。
[0173]
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1