一种动态网络表示方法及系统

文档序号:25360465发布日期:2021-06-08 15:33阅读:156来源:国知局
一种动态网络表示方法及系统

1.本发明涉及网络数据挖掘领域,特别是涉及一种动态网络表示方法及系统。


背景技术:

2.随着互联网的兴起,基于各种网络(例如社交网络、通信网络、合作网络等)的数据挖掘任务变得越来越重要,动态网络是一种十分重要的用于表示网络的工具。各种网络的网络数据通常是复杂难处理的,且其网络结构实时变化,因此,如何从历史的网络结构中挖掘动态的演变特征、学习节点的低维向量表示是十分必要的。
3.在现实生活中,许多网络是动态的,其会随着时间的发展发生结构上的变化。动态网络表示方法通过捕获网络的动态变化,大大提高学习到的节点表示向量的表示能力,从而更好地为下游任务服务。网络表示学习,又称为网络嵌入、图嵌入,它旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力,同时可轻松方便的作为机器学习模型的输入,进而可将得到的向量表示运用到网络中常见的应用中。网络表示学习是挖掘网络结构的动态演变特征、学习节点的低维向量表示的有效方法。
4.早期的动态网络表示方法根据连续的截止时间点将网络分为多个静态网络(即snapshot),通过学习相邻snapshot之间的变化学习节点表示。tne是一种基于非负矩阵分解的动态网络表示方法,其在每个snapshot上采用非负矩阵分解技术,从而为所有snapshot的节点学习向量表示。虽然节点在所有的snapshot上都有一个节点表示,但相互之间并不是独立的。考虑到相邻snapshot的时间推移关系,在矩阵分解的目标函数上增加了关于时间平滑的正则项。这类方法往往忽略了snapshot中的动态性,例如在某个snapshot中,节点对之间先产生连接后断开连接,反应到snapshot中的信息是节点之间没有产生连接,显然这两种信息对节点表示的学习差异是巨大的。
5.为了解决基于snapshot方法的动态信息大量丢失问题,基于序列学习的动态网络表示方法被提出。这类方法将动态网络转换为按时间排列的节点序列,并通过不同的序列学习方法学习节点表示。ctdne通过时域随机游走产生节点序列。但是ctdne使用skip

gram模型来学习序列,丢失了节点序列中蕴含的顺序信息。由于skip

gram模型只关心中心节点和上下文节点的共现概率,并不关心节点出现的顺序。htne通过将节点在序列中的位置信息集成到学习过程中来保留节点之间的顺序信息,从而改进了ctdne。现有的基于序列学习的动态网络表示方法只在序列生成阶段考虑了时间,但是在后续的序列学习模型中缺乏对时间信息甚至节点位置信息的学习,而且学习的节点关系是单一的,并没有考虑序列中的节点关系的多样性。因此,现有的基于序列学习的动态网络表示方法,并不能准确挖掘网络结构的演化特征,从而链接预测、节点分类等下游任务服务的准确性也会受到影响。


技术实现要素:

6.基于此,有必要提供一种动态网络表示方法及系统,以准确挖掘网络结构的演化
特征,从而提高链接预测、节点分类等下游任务服务的准确性。
7.为实现上述目的,本发明提供了如下方案:
8.一种动态网络表示方法,包括:
9.生成网络的节点序列;
10.构建多个独立的隐空间,以节点位置信息作为约束,采用自注意力机制对所述节点序列进行节点序列关系学习,得到融合节点之间多重潜在关系信息的第一节点表示序列;
11.将所述第一节点表示序列转换为边表示序列,以时间戳信息作为约束,采用自注意力机制对所述边表示序列进行边序列关系学习,得到融合边之间多重潜在关系信息的第一边表示序列;
12.由所述第一边表示序列确定序列向量表示,计算所有的所述序列向量表示中正样本的序列表示和负样本的序列表示之间的交叉熵损失,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示。
13.可选的,所述生成网络的节点序列,具体包括:
14.采用时域随机游走的方式生成网络的节点序列。
15.可选的,所述构建多个独立的隐空间,以节点位置信息作为约束,采用自注意力机制对所述节点序列进行节点序列关系学习,得到融合节点之间多重潜在关系信息的第一节点表示序列,具体包括:
16.随机初始化生成节点表示矩阵和位置表示矩阵;
17.由所述节点序列确定节点位置信息;
18.根据所述节点序列、所述节点位置信息、所述节点表示矩阵和所述位置表示矩阵确定融合节点位置信息的第二节点表示序列;
19.构建多个独立的隐空间;
20.对于各所述隐空间,采用三个全连接层分别对所述第二节点表示序列映射得到节点的映射向量;所述映射向量包括查询向量、关键词向量和值向量;
21.基于所述节点的映射向量得到融合节点之间多重潜在关系信息的第一节点表示序列。
22.可选的,所述将所述第一节点表示序列转换为边表示序列,以时间戳信息作为约束,采用自注意力机制对所述边表示序列进行边序列关系学习,得到融合边之间多重潜在关系信息的第一边表示序列,具体包括:
23.计算所述第一节点表示序列中相邻两个节点的向量的平均值,得到边表示序列;
24.由所述时间戳信息构建时间戳序列;
25.将所述边表示序列和所述时间戳序列连接,得到融合时间信息的第二边表示序列;
26.对于各所述隐空间,采用三个全连接层分别对所述第二边表示序列映射得到边的映射向量;
27.基于所述边的映射向量得到融合边之间多重潜在关系信息的第一边表示序列。
28.可选的,所述由所述第一边表示序列确定序列向量表示,计算所有的所述序列向量表示中正样本的序列表示和负样本的序列表示之间的交叉熵损失,并将所述交叉熵损失
停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示,具体包括:
29.对所述第一边表示序列求平均值,得到序列向量表示;
30.对于所有的节点序列对应的序列向量表示,计算正样本的序列表示和负样本的序列表示之间的交叉熵损失;所述的交叉熵损失为
[0031][0032]
其中,loss表示交叉熵损失,n表示节点序列的总数量,i表示第i个节点序列,y
i
表示第i个节点序列是正样本还是负样本,δ
i
表示将第i个节点序列的向量映射到一维得到的一维向量;
[0033]
根据所述交叉熵损失,采用梯度下降法更新学习参数,并当所述交叉熵损失停止下降时停止迭代,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示;所述学习参数包括所述节点表示矩阵、所述位置表示矩阵、所述节点的映射向量中的权重、所述节点的映射向量中的偏差、所述边的映射向量中的权重和所述边的映射向量中的偏差。
[0034]
本发明还提供了一种动态网络表示系统,包括:
[0035]
节点序列生成模块,用于生成网络的节点序列;
[0036]
第一序列关系学习模块,用于构建多个独立的隐空间,以节点位置信息作为约束,采用自注意力机制对所述节点序列进行节点序列关系学习,得到融合节点之间多重潜在关系信息的第一节点表示序列;
[0037]
第二序列关系学习模块,用于将所述第一节点表示序列转换为边表示序列,以时间戳信息作为约束,采用自注意力机制对所述边表示序列进行边序列关系学习,得到融合边之间多重潜在关系信息的第一边表示序列;
[0038]
最优节点表示确定模块,用于由所述第一边表示序列确定序列向量表示,计算所有的所述序列向量表示中正样本的序列表示和负样本的序列表示之间的交叉熵损失,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示。
[0039]
可选的,所述节点序列生成模块,具体包括:
[0040]
节点序列生成单元,用于采用时域随机游走的方式生成网络的节点序列。
[0041]
可选的,所述第一序列关系学习模块,具体包括:
[0042]
初始化单元,用于随机初始化生成节点表示矩阵和位置表示矩阵;
[0043]
位置信息确定单元,用于由所述节点序列确定节点位置信息;
[0044]
第一融合单元,用于根据所述节点序列、所述节点位置信息、所述节点表示矩阵和所述位置表示矩阵确定融合节点位置信息的第二节点表示序列;
[0045]
隐空间构建单元,用于构建多个独立的隐空间;
[0046]
节点映射单元,用于对于各所述隐空间,采用三个全连接层分别对所述第二节点表示序列映射得到节点的映射向量;所述映射向量包括查询向量、关键词向量和值向量;
[0047]
第二融合单元,用于基于所述节点的映射向量得到融合节点之间多重潜在关系信息的第一节点表示序列。
[0048]
可选的,所述第二序列关系学习模块,具体包括:
[0049]
边表示序列计算单元,用于计算所述第一节点表示序列中相邻两个节点的向量的
平均值,得到边表示序列;
[0050]
时间戳序列构建单元,用于由所述时间戳信息构建时间戳序列;
[0051]
第三融合单元,用于将所述边表示序列和所述时间戳序列连接,得到融合时间信息的第二边表示序列;
[0052]
边映射单元,用于对于各所述隐空间,采用三个全连接层分别对所述第二边表示序列映射得到边的映射向量;
[0053]
第四融合单元,用于基于所述边的映射向量得到融合边之间多重潜在关系信息的第一边表示序列。
[0054]
可选的,所述最优节点表示确定模块,具体包括:
[0055]
序列向量表示计算单元,用于对所述第一边表示序列求平均值,得到序列向量表示;
[0056]
损失计算单元,用于对于所有的节点序列对应的序列向量表示,计算正样本的序列表示和负样本的序列表示之间的交叉熵损失;所述的交叉熵损失为
[0057][0058]
其中,loss表示交叉熵损失,n表示节点序列的总数量,i表示第i个节点序列,y
i
表示第i个节点序列是正样本还是负样本,δ
i
表示将第i个节点序列的向量映射到一维得到的一维向量;
[0059]
迭代更新单元,用于根据所述交叉熵损失,采用梯度下降法更新学习参数,并当所述交叉熵损失停止下降时停止迭代,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示;所述学习参数包括所述节点表示矩阵、所述位置表示矩阵、所述节点的映射向量中的权重、所述节点的映射向量中的偏差、所述边的映射向量中的权重和所述边的映射向量中的偏差。
[0060]
与现有技术相比,本发明的有益效果是:
[0061]
本发明提出了一种动态网络表示方法及系统,通过学习节点序列的位置信息和边序列的时间戳信息,使得学习的节点表示具有位置合理性和时间合理性,能准确挖掘网络结构的演化特征,提高了链接预测、节点分类等下游任务服务的准确性;在节点序列学习和边序列学习中,在多个独立的隐空间中使用自注意力机制挖掘序列相关性,极大地提高了挖掘序列潜在多样关系的能力;相较于基于rnn的序列学习方法,基于自注意力机制的计算不依赖上一时刻的输出,因此,可以进行并行化计算,时间效率更高。
附图说明
[0062]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0063]
图1为本发明实施例提供的动态网络表示方法的流程图;
[0064]
图2为本发明实施例提供的动态网络表示方法的具体实现过程图;
[0065]
图3为本发明实施例提供的通信网络中不同序列学习方法的比对示意图;
[0066]
图4为本发明实施例提供的动态网络表示系统的结构图。
具体实施方式
[0067]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0068]
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
[0069]
本发明采用表示输入的动态网络,即通信网络。v=(v0,v1,

,v
|v|
)是动态网络所有节点的集合,其中|v|代表节点数量。e是动态网络所有边的集合。是一个映射函数,维护每一条边和其对应的时间属性t的映射关系。动态网络表示旨在为网络中的每一个节点学习一个维度为d的向量表示,其中d<<|v|。
[0070]
图1为本发明实施例提供的动态网络表示方法的流程图。
[0071]
参见图1,本实施例的动态网络表示方法,包括:
[0072]
步骤101:生成网络的节点序列。具体的,采用时域随机游走的方式生成网络的节点序列。所述网络可以为社交网络、通信网络或合作网络等。
[0073]
采用时域随机游走的方式生成网络的节点序列,具体实现方式为:
[0074]
时域随机游走是一种改进的随机游走方式,它在时域邻居中进行有时间有偏的游走。假设从上个节点v
la
游走到当前节点v
cu
,其中e=<v
la
,v
cu
>∈e,f(e)=t。v
cu
在时刻t的时域邻居为:
[0075]
γ
t
(v
cu
)={v
ne
|<v
cu
,v
ne
>∈e∧f(<v
cu
,v
ne
>)>t}。
[0076]
基于时间有偏的概率选择下一跳节点v
ne
∈γ
t
(v
cu
)。时间有偏的概率定义为:
[0077][0078]
其中是v
la
与v
ne
之间的最短路径的距离,p是返回参数,q是进出参数,p
t
(v
la
,v
cu
,v
ne
,t)是时间转移概率,其定义如下:
[0079][0080]
在最大长度k
max
的限制下,随机选取两个相连的节点作为初始的v
la
和v
cu
,根据上述定义选取下一跳节点v
ne
。其后v
cu
变v
la
,v
ne
变v
cu
,以此类推继续游走,按照游走顺序将遍历到的节点添加到节点序列中去。多次游走之后得到多个节点序列,作为后面节点序列学习的输入。
[0081]
步骤102:构建多个独立的隐空间,以节点位置信息作为约束,采用自注意力机制对所述节点序列进行节点序列关系学习,得到融合节点之间多重潜在关系信息的第一节点表示序列。
[0082]
所述步骤102,是在节点序列学习在节点位置信息的约束下,学习节点之间的序列关系。假设输入序列的长度为l
s
,用表示。该步骤具体包括:
[0083]
1)为了将节点的位置信息纳入到学习过程,为离散的位置变量维护一个可学习的表示矩阵。首先随机初始化生成节点表示矩阵h
v
和位置表示矩阵h
p
,其中h
v
∈r
|v|*d

[0084]
2)由所述节点序列确定节点位置信息。s的位置信息可以表示为p=[0,1,

,l
s

1]。
[0085]
3)根据所述节点序列、所述节点位置信息、所述节点表示矩阵和所述位置表示矩阵确定融合节点位置信息的第二节点表示序列。
[0086]
具体的,将s和p分别输入节点表示矩阵和位置表示矩阵,得到节点表示序列s
v
和位置表示序列s
p

[0087]
s
v
=lookup(h
v
,s),
[0088]
s
p
=lookup(h
p
,p),
[0089]
其中lookup是一个通过下标从矩阵中查找向量的函数。为了联合学习关系信息和位置信息,将s
v
和s
p
连接起来:
[0090][0091]
其中s'
v
是融合了节点位置信息的节点表示序列,即第二节点表示序列。
[0092]
4)为了学习节点之间的多重潜在关系,在m个独立的隐空间中使用自注意力机制。具体为:
[0093]
构建多个独立的隐空间。对于各所述隐空间,采用三个全连接层分别对所述第二节点表示序列映射得到节点的映射向量;所述映射向量包括查询向量、关键词向量和值向量。基于所述节点的映射向量得到融合节点之间多重潜在关系信息的第一节点表示序列。
[0094]
例如,在第i(0≤i<m)个隐空间中,通过三个全连接层将s'
v
分别映射为查询向量q
i
,关键词向量k
i
和值向量v
i
,其中,q
i
=s'
v
*w
qi
+b
qi
,k
i
=s'
v
*w
ki
+b
ki
,v
i
=s'
v
*w
vi
+b
vi
。利用公式计算得到序列中任意两个节点表示之间的关系权重weight,d表示为网络中的每一个节点学习的向量表示的维度,t表示转置,w
qi
和b
qi
表示节点的查询向量的权重和偏置,w
ki
和b
ki
表示节点的关键词向量的权重和偏置,w
vi
和b
vi
表示节点的值向量的权重和偏置。利用这个权重融合序列中其他节点表示得到最后的由m个求平均得到,因此融合了节点之间的多重潜在关系信息,即第一节点表示序列。算法实现过程如下:
[0095][0096]
步骤103:将所述第一节点表示序列转换为边表示序列,以时间戳信息作为约束,采用自注意力机制对所述边表示序列进行边序列关系学习,得到融合边之间多重潜在关系信息的第一边表示序列。
[0097]
所述步骤103,是在边序列学习在时间信息的约束下,学习边之间的序列关系。具体包括:
[0098]
1)节点序列中连接两个相邻节点的边的向量表示可以通过对这两个节点的向量表示取平均值得到。因此,计算所述第一节点表示序列中相邻两个节点的向量的平均值,得到边表示序列,这样,第一节点表示序列转为边表示序列
[0099]
2)由所述时间戳信息构建时间戳序列。时间戳是一个实数,为了包含边上的时间戳信息,时间戳序列被转为
[0100]
s
t
=t*w
t

[0101]
其中w
t
∈r
2d
是一个0均值的高斯向量。
[0102]
3)为了将时间戳作为边序列关系学习的约束,将所述边表示序列s
e
和所述时间戳序列s
t
连接,得到融合时间信息的第二边表示序列
[0103][0104]
其中
[0105]
4)为了学习边之间的多重序列关系,在m个独立的隐空间中使用自注意力机制。对于各所述隐空间,采用三个全连接层分别对所述第二边表示序列映射得到边的映射向量;基于所述边的映射向量得到融合边之间多重潜在关系信息的第一边表示序列。
[0106]
例如,在第i(0≤i<m)个隐空间中,通过三个全连接层将s'
e
分别映射为查询向量q1
i
,关键词向量k1
i
和值向量v1
i
,其中,q1
i
=s'
e
*w1
qi
+b1
qi
,k1
i
=s'
e
*w1
ki
+b1
ki
,v1
i
=s'
e
*w1
vi
+b1
vi
。利用公式计算得到序列中任意两个节点表示之间的关系权重weight1,w1
qi
和b1
qi
表示边的查询向量的权重和偏置,w1
ki
和b1
ki
表示边的关键词向量的权重和偏置,w1
vi
和b1
vi
表示边的值向量的权重和偏置。利用这个权重融合序列中其他节点表示得到表示边的值向量的权重和偏置。利用这个权重融合序列中其他节点表示得到最后的由m个求平均得到,因此融合了边之间的多重潜在关系信息,即第一边表示序列。算法实现过程如下:
[0107]
[0108]
步骤104:由所述第一边表示序列确定序列向量表示,计算所有的所述序列向量表示中正样本的序列表示和负样本的序列表示之间的交叉熵损失,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示。
[0109]
所述步骤104,具体包括:
[0110]
1)序列表示效果评估。
[0111]

对所述第一边表示序列求平均值,得到序列向量表示。
[0112]

对于所有的节点序列对应的序列向量表示,计算正样本的序列表示和负样本的序列表示之间的交叉熵损失。正样本的序列表示和负样本的序列表示应在向量空间中尽可能地分离。正负样本在向量空间越分离,构成序列的节点表示效果越好。为了衡量序列在向量空间中的位置,利用全连接层将第i个序列的高维向量表示映射到一维变量δ
i
∈[0,1],表示在一维空间中的位置。正样本的δ
i
值应接近1,负样本的δ
i
值应接近0。交叉熵损失被用来度量分离程度,所述的交叉熵损失的计算公式为
[0113][0114]
其中,loss表示交叉熵损失,n表示节点序列的总数量,i表示第i个节点序列,y
i
表示第i个节点序列是正样本还是负样本,δ
i
表示将第i个节点序列的向量映射到一维得到的一维向量。
[0115]
2)节点表示优化
[0116]
根据所述交叉熵损失,采用梯度下降法更新学习参数,并当所述交叉熵损失停止下降时停止迭代,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示;所述学习参数包括所述节点表示矩阵、所述位置表示矩阵、所述节点的映射向量中的权重、所述节点的映射向量中的偏差、所述边的映射向量中的权重和所述边的映射向量中的偏差。
[0117]
在实际应用中,在序列表示性能度量之后,利用梯度下降法adam算法优化模型的学习参数θ,学习参数θ包括两个表示矩阵h
v
和h
p
,权重w
*
和偏差b
*
,权重w1
*
和偏差b1
*
。为了防止模型过拟合,采用了早停技术。如果交叉熵损失停止下降,模型将等待几个轮次。如果在等待轮次之后损失还没有继续下降,则优化停止,认为节点表示无法进一步优化。
[0118]
本实施例的动态网络表示方法的具体实现过程如图2所示。
[0119]
下面对本实施例的动态网络表示方法的优势进行说明。
[0120]
比如在通信网络中,如图3所示,每个节点就是一个人,m如果在时刻t给n打电话,那么在通信网络中,m和n之间产生一条边,边的时间属性就是t。从这个网络中游走出一条长度为3的序列,包含allen、carl和ben。
[0121]
针对这条序列,已有的序列学习方法学习的信息不同,比如ctdne使用的skip

gram模型只学习了人与人之间的关系信息(correlation),即:allen和carl、ben有过电话上的往来,说明allen是同时认识carl和ben的,如图3中的a部分所示。而htne在关系信息的基础上进一步学习了每个人在序列上的位置信息(correlation+position),即:carl先给allen打的电话,然后allen再给ben打的电话,如图3中的b部分所示。而本实施例的方法进一步将边上的时间信息纳入到学习中去(correlation+position+timestamp),即:carl在
2019.1给allen打的电话,然后allen在2020.9给ben打的电话,如图3中的c部分所示。因此,本实施例对序列中的信息学习的更加全面,包含了关系信息、位置信息和时间信息。关系的多样性学习基于这样一种考虑,两个人之间的电话交流可能是职场沟通,也有可能是私下朋友间的沟通,甚至其他类型的关系,而已有的方法基本只考虑了单关系的学习,本实施例的方法通过多个隐空间的假设增加了对多关系的学习。
[0122]
本发明还提供了一种动态网络表示系统,参见图4,本实施例的动态网络表示系统,包括:
[0123]
节点序列生成模块201,用于生成网络的节点序列。
[0124]
第一序列关系学习模块202,用于构建多个独立的隐空间,以节点位置信息作为约束,采用自注意力机制对所述节点序列进行节点序列关系学习,得到融合节点之间多重潜在关系信息的第一节点表示序列。
[0125]
第二序列关系学习模块203,用于将所述第一节点表示序列转换为边表示序列,以时间戳信息作为约束,采用自注意力机制对所述边表示序列进行边序列关系学习,得到融合边之间多重潜在关系信息的第一边表示序列。
[0126]
最优节点表示确定模块204,用于由所述第一边表示序列确定序列向量表示,计算所有的所述序列向量表示中正样本的序列表示和负样本的序列表示之间的交叉熵损失,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示。
[0127]
作为一种可选的实施方式,所述节点序列生成模块201,具体包括:
[0128]
节点序列生成单元,用于采用时域随机游走的方式生成网络的节点序列。
[0129]
作为一种可选的实施方式,所述第一序列关系学习模块202,具体包括:
[0130]
初始化单元,用于随机初始化生成节点表示矩阵和位置表示矩阵。
[0131]
位置信息确定单元,用于由所述节点序列确定节点位置信息。
[0132]
第一融合单元,用于根据所述节点序列、所述节点位置信息、所述节点表示矩阵和所述位置表示矩阵确定融合节点位置信息的第二节点表示序列。
[0133]
隐空间构建单元,用于构建多个独立的隐空间。
[0134]
节点映射单元,用于对于各所述隐空间,采用三个全连接层分别对所述第二节点表示序列映射得到节点的映射向量;所述映射向量包括查询向量、关键词向量和值向量。
[0135]
第二融合单元,用于基于所述节点的映射向量得到融合节点之间多重潜在关系信息的第一节点表示序列。
[0136]
作为一种可选的实施方式,所述第二序列关系学习模块203,具体包括:
[0137]
边表示序列计算单元,用于计算所述第一节点表示序列中相邻两个节点的向量的平均值,得到边表示序列。
[0138]
时间戳序列构建单元,用于由所述时间戳信息构建时间戳序列。
[0139]
第三融合单元,用于将所述边表示序列和所述时间戳序列连接,得到融合时间信息的第二边表示序列。
[0140]
边映射单元,用于对于各所述隐空间,采用三个全连接层分别对所述第二边表示序列映射得到边的映射向量。
[0141]
第四融合单元,用于基于所述边的映射向量得到融合边之间多重潜在关系信息的第一边表示序列。
[0142]
作为一种可选的实施方式,所述最优节点表示确定模块204,具体包括:
[0143]
序列向量表示计算单元,用于对所述第一边表示序列求平均值,得到序列向量表示。
[0144]
损失计算单元,用于对于所有的节点序列对应的序列向量表示,计算正样本的序列表示和负样本的序列表示之间的交叉熵损失;所述的交叉熵损失为
[0145][0146]
其中,loss表示交叉熵损失,n表示节点序列的总数量,i表示第i个节点序列,y
i
表示第i个节点序列是正样本还是负样本,δ
i
表示将第i个节点序列的向量映射到一维得到的一维向量。
[0147]
迭代更新单元,用于根据所述交叉熵损失,采用梯度下降法更新学习参数,并当所述交叉熵损失停止下降时停止迭代,并将所述交叉熵损失停止下降时对应的节点表示矩阵确定为所述网络的最优节点表示;所述学习参数包括所述节点表示矩阵、所述位置表示矩阵、所述节点的映射向量中的权重、所述节点的映射向量中的偏差、所述边的映射向量中的权重和所述边的映射向量中的偏差。
[0148]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
[0149]
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1