基于局部结构特征增强的网络对齐方法、装置及设备

文档序号:30706407发布日期:2022-07-09 23:30阅读:195来源:国知局
基于局部结构特征增强的网络对齐方法、装置及设备

1.本技术涉及网络对齐技术领域,特别是涉及一种基于局部结构特征增强的网络对齐方法、装置及设备。


背景技术:

2.在当今世界,网络几乎无处不在。从计算机视觉、生物信息学、网络挖掘、化学到社会网络分析,各种各样的网络自然地出现在许多具有高度影响力的应用领域。通常情况下,网络对齐(即,在不同的网络中查找节点的对应关系)实际上是这些应用程序中任何数据挖掘任务的第一步。例如,通过链接不同社交网站的用户,可以将一个网站(如淘宝)的产品推荐给另一个网站(如微信)的用户。在生物信息学中,整合不同的组织特异性蛋白质-蛋白质相互作用(ppi)网络已导致候选基因优先排序的显著改进。
3.一般来说,假设两个(或多个)的节点之间存在固有的对应关系,网络对齐的目的就是发现两个(或更多)网络中的一组节点对。考虑到现实生活中的网络规模都较大,而基于谱方法的网络对齐模型计算效率不高,基于网络表示学习的网络对齐方法因此出现。虽然基于网络表示学习的方法也被证明在学习两个网络的表示方面是有效的,但是目前的如pale、ione等基于网络表示学习的网络对齐方法忽略了网络本身存在的噪声问题。而基于迭代深度图学习的网络对齐方法忽略了数据稀疏问题,同时,模型更多的是关注全局结构特征,忽略了局部结构特征,这也使得模型在稀疏数据集上的效果不够理想。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种能够增强局部特征,同时缓解网络噪声问题的基于局部结构特征增强的网络对齐方法、装置及设备。
5.一种基于局部结构特征增强的网络对齐方法,所述方法包括:
6.获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
7.将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
8.获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
9.在其中一实施例中,在所述解码部分采用知识表示学习方法时,分别计算其中一优化后的网络结构中的各节点与另一优化后的网络结构中的各节点之间的评分函数,并根据评分函数对两个节点是否对齐进行预测。
10.在其中一实施例中,所述评分函数根据两个节点以及两个节点之间的边进行计
算。
11.在其中一实施例中,在所述解码部分基于知识表示学习方法选取transe、transh、distmult、complex以及rotate模型中任意一种模型对应的评分函数进行网络对齐预测。
12.在其中一实施例中,在对所述网络对齐模型进行训练时,分别利用损失函数对编码部分以及解码部分进行训练,其中,在所述解码部分,采用与选取的模型相应的损失函数作为预测损失函数对所述解码部分进行训练,而在所述编码部分,采用图正则化损失函数以及所述预测损失函数的混合损失函数对所述编码部分进行训练。
13.在其中一实施例中,在对所述网络对齐模型进行训练时,采用bootstrapping算法将新生成的节点对加入所述训练集中对所述网络对齐模型进行训练。
14.一种基于局部结构特征增强的网络对齐装置,所述装置包括:
15.训练集获取模块,用于获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
16.网络对齐模型训练模块,用于将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
17.网络对齐模块,用于获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
18.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
19.获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
20.将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
21.获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
22.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
23.获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
24.将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分
采用知识表示学习方法对优化后的网络结构进行对齐预测;
25.获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
26.上述基于局部结构特征增强的网络对齐方法、装置及设备,通过在网络对齐模型中采用迭代深度图学习方法将输入的网络结构进行迭代优化得到更适合进行网络对齐的更新网络结构,这样可以缓解网络结构中存在的噪声,再采用知识表示学习方法基于更新网络结构进行网络对齐以增强网络结构的局部特征,以提高网络对齐的准确性。
附图说明
27.图1为一个实施例中基于局部结构特征增强的网络对齐方法的流程示意图;
28.图2为一个实施例中网络对齐模型的结构示意图;
29.图3为实验中success@10随训练集比例变化情况示意图;
30.图4为实验中map随训练集比例变化情况示意图;
31.图5为一个实施例中基于局部结构特征增强的网络对齐装置的结构框图;
32.图6为一个实施例中计算机设备的内部结构图。
具体实施方式
33.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
34.如图1所示,提供了一种基于局部结构特征增强的网络对齐方法,包括以下步骤:
35.步骤s100,获取训练集,训练集中包括两个网络数据集,各网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
36.步骤s110,将训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,网络对齐模型包括编码部分以及解码部分,编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
37.步骤s120,获取待对齐的两个网络数据集,并将这两个网络数据集输入已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
38.在本实施例中,步骤s100和s110为训练网络对齐模型的步骤,而s120为应用已训练好的网络对齐模型。在本文中着重对步骤s100与s110进行阐述。
39.在步骤s110中,训练集中的两个网络数据集将网络结构表示为g=(v,e),其中v和e分别代表g的节点集合和边集合,|v|和|e|表示节点和边的数量。对于节点集合中的任意两个节点ui和uj,如果它们之间存在链接,那么则有一条边ei存在于边集合当中。
40.作为例子,以社交网络为例,可以把用户看作节点,观察到的用户之间的关系作为边,如果两个用户不存在边,则说明两个用户不是朋友(或者是未被观察到)。而用户通常可能会在两个的社交网络上进行注册,而这些社交网络上的一些朋友可能会重叠。因此在两个网络中找到节点的对应关系就是网络对齐任务。
41.而对于网络对齐,也就是说给定两个网络(gs,g
t
),gs表示源网络,g
t
表示目标网络,网络对齐的目标是找到一个映射π:vs→vt
,找到从vs到v
t
的一对一的对应关系,即v
t
=π(us),同样的,us=π-1
(v
t
),其中us和v
t
分别表示gs和g
t
中的节点。
42.如图2所示,网络对齐模型包括编码部分以及解码部分,其中编码部分为基于迭代深度图学习的神经网络以对输入的网络结构进行优化迭代以得到更新的网络结构,并且该网络结构更适合于下游任务也就是进行网络对齐,通过迭代深度图学习可以有效的缓解原始网络结构中的噪音。而解码部分为基于知识表示学习的神经网络可以基于网络结构的局部结构特征增强进行网络对齐预测。在下文中,首先介绍基于迭代深度图学习的编码部分,再对知识表示学习的解码部分进行介绍。
43.具体的,迭代深度图学习是一种新的迭代方法,其目的是搜索一种隐式图结构,以增强下游预测任务的初始图结构。基于提出的停止准则,当学习的图结构接近优化图(相对于下游任务)时,迭代方法在每个小批量中动态停止。此外,图形构建过程可以以端到端的方式针对下游任务(对齐任务)进行优化。而在方法中,各种网络结构均可以图结构的方式进行表征,所以可以利用迭代深度图学习方法对图结构进行更新。
44.在以前的方法中将图学习问题建模为在图的边上学习联合离散概率分布,这些方法显示出了良好的性能。但是,由于它们是通过假设图形节点已知来优化边连接性,因此它们无法处理归纳设置(在测试期间使用新节点)。为了克服这个问题,在本实施例中将图结构学习问题转化为相似性度量学习。
45.具体的,图相似性度量学习的常见方法包括余弦相似性(cosine similarity)、径向基函数(radial basis function,rbf)核和注意机制(attention mechanism)。一个好的相似性度量函数应该是可学习的,并且表现力很强。虽然迭代深度图学习框架对各种相似性度量函数是不可知的,但在不丧失通用性的情况下,而在本实施例中,以加权余弦相似性作为度量函数,即s
ij
=cos(w

vi,w

vj),其中

表示哈德曼积(hadamard product),w是一个可学习的权重向量,其维数与输入向量vi和vj相同,并学习突出显示向量的不同维数。值得注意的是,这两个输入向量可以是原始节点特征或者是经过计算的节点嵌入。
46.同时,为了稳定学习过程并提高表达能力,将相似性度量函数扩展到一个多头的版本。具体而言,就是使用m个权重向量,每个权重向量代表一个视角,使用上述相似性函数计算m个独立的相似性矩阵,并将其平均值作为最终相似性,公式如下所示:
[0047][0048]
在公式(1)中,计算第p个视角的两个输入向量vi和vj之间的余弦相似度,其中每个视角考虑的是在向量中捕获的语义的一部分。
[0049]
通常情况下,由相似性度量计算得出的邻接矩阵应该是非负的,但是s
ij
的范围在[-1,1]之间。此外,许多底层图结构比完全连通图要稀疏得多,因为完全连通图不仅计算昂贵,而且可能会引入噪声(即不重要的边)。因此,通过只考虑每个节点的ε邻域,继续从s中提取对称稀疏非负邻接矩阵a。具体来说,也就是屏蔽掉s中小于非负阈值ε的元素,将值设为0。
[0050]
虽然初始图可能会有噪声,但它通常仍然包含关于真实图拓扑的丰富而有用的信
息。理想情况下,学习到的图结构a可以补充原始图拓扑a
(0)
,以针对对齐任务为gnns制定优化图。因此,在温和假设优化图结构可能是初始图结构的“转移”的情况下,将学习的图与初始图相结合,公式如下所示:
[0051][0052]
在公式(2)中,i
(0)
=d
(0)-1/2a(0)d(0)-1/2
是初始图的归一化邻接矩阵。a
(t)
和a
(1)
分别是通过公式1计算出来的第t次和第1次迭代的两个邻接矩阵。对邻接矩阵进一步进行归一化,就得到f(a)
ij
=a
ij
/∑
jaij

[0053]
值得注意的是,a
(0)
是根据原始的节点特征x计算得到的,而a
(t)
则是根据先前更新的节点嵌入z
(t-1)
计算得出的,该节点嵌入z
(t-1)
是针对对齐预测任务进行优化得到的。因此,将最终学习的图结构作为它们的线性组合,通过超参数η来进行加权,从而将两者的优点结合起来。最后,再使用另一个超参数λ来平衡学习到的图结构和初始图结构之间的平衡。
[0054]
同时,图形学习框架与各种gnn架构(以节点特征矩阵和邻接矩阵作为输入来计算节点嵌入)和预测任务无关。在本实施例中的迭代深度图学习网络中采用了两层gcn,其中第一层(表示为gnn1)将原始节点特征x映射到中间嵌入空间,第二层(表示为gnn2)进一步将中间节点嵌入z映射到输出空间。
[0055]
同时,提出的图形学习框架与各种gnn架构(以节点特征矩阵和邻接矩阵作为输入来计算节点嵌入)和预测任务无关。在本文中,采用了两层gcn,其中第一层(表示为gnn1)将原始节点特征x映射到中间嵌入空间,第二层(表示为gnn2)进一步将中间节点嵌入z映射到输出空间。
[0056][0057]
在公式(3)中,σ(
·
)和l(
·
)分别是任务相关的输出函数和损失函数。在对齐预测任务中,σ(.)是softmax函数,l(.)是用于计算预测损失的交叉熵函数。mp(
·

·
)是一个消息传递函数,并且在gcn中,用到了特征/嵌入矩阵f和规范化邻接矩阵(使用公式2得到的)。
[0058]
虽然将学习图a
(t)
与初始图a
(0)
相结合是逼近优化图的有效方法,但学习图a
(t)
的质量对提高最终图的质量起着重要作用。在实践中,控制生成的学习图a
(t)
的平滑度、连通性和稀疏性是非常重要的,它忠实地反映了关于初始节点属性x和下游任务的图拓扑。
[0059]
将特征矩阵x的每一列视为图信号。图信号的一个广泛采用的假设是值在相邻节点之间平滑变化。给定一个具有对称加权邻接矩阵a的无向图,一组n个图信号通常用狄里克莱能测量,公式如下:
[0060][0061]
在公式(4)中,tr(
·
)表示矩阵的迹,l=d-a是图拉普拉斯算子,d=∑
jaij
是度矩阵。可以看出,最小化ω(a,x)可以迫使相邻节点具有相似的特征,从而增强与a关联的图上的图信号的平滑性。
[0062]
但是,仅最小化平滑度损失将导致零解a=0。此外,还希望能够控制生成的图的稀疏程度。因此,迭代深度图学习网络中在对学习的图施加额外的约束,公式如下所示:
[0063][0064]
在公式(5)中,||
·
||f表示矩阵的frobenius范数。第一项通过对数势垒惩罚不连通图的形成,第二项通过惩罚第一项的大程度来控制稀疏性。
[0065]
然后,将总体图的正则化损失定义为上述损失的总和,它能够控制学习图的平滑性、连通性和稀疏性,其中α、β和χ都是非负超参数。
[0066]
而在对这一部分的神经网络进行训练时,与之前基于图正则化损失或者任务相关预测损失直接优化邻接矩阵的工作相比,在迭代深度图学习网络中通过最小化结合任务预测损失和图正则化损失的混合损失函数,即来联合和迭代地学习图结构和gnn参数。其中任务预测损失为解码部分神经网络的损失函数,在后文中将会进行解释。
[0067]
在通过编码部分对网络结构进行迭代更新之后再通过解码部分对网络进行对齐预测。而在这一部分中采用了知识表示学习的方式,由于在本方法中网络结构是以多个节点以及两两具有关系节点之间的边进行表示的,而在知识表示学习中,一个知识图谱可以表示为其中ε,和分别表示实体、关系和三元组的集合。头部实体可以表示为h,关系表示为r,尾实体表示为t。因此,(h,r,t)表示一个三元组,粗体字母h、r、t表示(h,r,t)的嵌入。实体的数量、关系和嵌入的维数用ne、nr和d表示。而网络中的节点可以看作实体,边可以看作关系,这样知识表示学习方法就可以运用到网络对齐任务中。
[0068]
具体的,因为网络中的节点可以看作是知识表示学习中的实体,而网络中的边则可以看作是关系,这样就可以把网络中的对齐问题看作是知识表示学习中的链路预测问题。
[0069]
进一步的,在解码部分采用知识表示学习方法时,分别计算其中一优化后的网络结构中的各节点与另一优化后的网络结构中的各节点之间的评分函数,并根据评分函数对两个节点是否对齐进行预测。而评分函数根据两个节点以及两个节点之间的边进行计算。
[0070]
在本实施例中,在解码部分可以应用知识表示学习方法中可选取transe、transh、distmult、complex以及rotate模型其中任意一种模型适应网络对齐框架,从而作为可以进行对齐预测的方法。而每一种模型均有对应的评分函数,接下来对每一种模型的评分函数进行介绍:
[0071]
在transe模型中,其思想是期望源网络中的节点的嵌入通过边嵌入的平移之后能够与目标网络中对应的节点的嵌入的距离足够接近,因此transe模型的得分函数可以用以下公式表示:
[0072]ftranse
(u+e,v)=||u+e-v||
ꢀꢀꢀ
(6)
[0073]
在公式(6)中,u和v表示节点的嵌入,e表示边的嵌入,
[0074]
对于transh模型来说,它是为了克服transe在边建模时的缺陷,使得节点在涉及不同的边的时候具有分布式的表示。对于一条边,模型将边特定的平移向量de定位在特定边的超平面we中,而不是在节点嵌入的空间当中,其评分函数用以下公式表示:
[0075][0076]
在公式(7)中,u和v表示节点的嵌入,e表示边的嵌入,。
[0077]
distmult模型采用了双线性编码,该模型中节点和边的嵌入可以通过一个神经网络来学习。第一层将一对输入节点投影到低维向量上,第二层将这两个向量组合到一个标量上,通过具有特定于边参数的评分函数进行比较。其评分函数为:
[0078]fdistmult
(u,v)=u
tbevꢀꢀꢀ
(8)
[0079]
在公式(8)中,u和v表示节点的嵌入,be是特定于边的参数。
[0080]
comlpex模型则是将复向量空间引入到嵌入当中,其评分函数用以下公式表示:
[0081][0082]
在公式(9)中,re(
·
)表示实部,im(
·
)表示虚部。u和v表示节点的嵌入,e表示边的嵌入,的嵌入,表示vk共轭。θ对应于嵌入
[0083]
rotate模型与complex模型一样将节点与边建模在复向量空间当中,不同的是rotate将边向量的模量限制为1,使其成为源网络节点到目标网络对应节点的旋转向量,因此,其评分函数表示为:
[0084][0085]
在公式(10)中,是hadmard积,u和v表示节点的嵌入,e表示边的嵌入,ei表示的每个元素,的模量被限制为|ei|=1。
[0086]
这样,在对解码部分的模型进行选择的时候灵活性更大,可根据具体情况对解码部分的模型进行选择。
[0087]
在本实施例中,网络对齐模型实在为基于迭代深度图学习方法的神经网络以及基于知识表示学习的神经网络共同构成的联合模型,而在图2中,并未将知识表示学习模型的具体名称写在框架图中,因为可以选择任意的知识表示学习模型实现网络对齐。
[0088]
而在对网络对齐模型进行训练时,关基于迭代深度图学习方法的神经网络的损失函数已经在前文中提到了,接下来对基于知识表示学习的神经网络的损失函数进行介绍:
[0089]
知识表示学习方法进行对齐预测时,针对不同的模型需要对应不同的损失函数进行训练。
[0090]
针对transe模型,为了学习基于翻译的嵌入,在训练集上最小化了一个基于边际的排名标准:
[0091][0092]
在公式(11)中,[x]
+
=max{0,x},s

(u,v)
表示通过重组(u,v)而构造的负节点对齐集,即用gs或g
t
中随机选择的节点替换u或v。u和v以及u

和v

表示节点的嵌入,e表示边的嵌入。δ1>0是transe模型中分隔正节点对齐和负节点对齐的边界超参数。
[0093]
对transh模型来说,为了鼓励区分正确的对齐节点和错误的对齐节点,使用以下基于边际的排名损失:
[0094][0095]
在公式(12)中,[x]
+
=max{0,x},s

(u,v)
表示通过重组(u,v)而构造的负节点对齐集,即用gs或g
t
中随机选择的节点替换u或v。u和v以及u

和v

表示节点的嵌入。δ2>0是transh模型中分隔正节点对齐和负节点对齐的边界超参数。
[0096]
distmult模型中,可以通过最小化基于边际的排名目标来学习,该目标鼓励正节点对齐的得分高于任何负节点对齐的得分。模型训练的目标是最大限度地减少基于边际的排名损失:
[0097][0098]
在公式(13)中,[x]
+
=max{0,x},s

(u,v)
表示通过重组(u,v)而构造的负节点对齐集,即用gs或g
t
中随机选择的节点替换u或v。u和v以及u

和v

表示节点的嵌入。
[0099]
在complex模型中,通过对所考虑模型的参数θ进行正则化,最小化逻辑模型的负对数似然,使用小批量随机梯度下降和adagrad对模型进行训练,以调整学习率:
[0100][0101]
在公式(14)中,当节点对为正确的对齐节点时,y
euv
=1,当节点对为错误的对齐节点时,y
euv
=-1。λ可在{0.1,0.03,0.01,0.003,0.001,0.0003,0.00001,0.0}中进行验证。
[0102]
rotate模型的损失函数与上述模型有些区别,它采取自对抗训练的负采样损失函数进行训练:
[0103][0104]
在公式(15)中,δ3为边界超参数,σ为sigmoid函数,(u
′i,e,v
′i)为第i个负对齐节点。具体而言,p(v
′i,e,v
′i)可以定义为:
[0105][0106]
在公式(16)中,α表示采样权重。
[0107]
而以上模型的损失函数也均会作为基于迭代深度图学习神经网络的损失函数部分进行迭代学习更好的网络结构,也就是上文中提到的任务预测损失。
[0108]
也就是说在对所述网络对齐模型进行训练时,分别利用损失函数对编码部分以及解码部分进行训练,其中,在解码部分,采用与选取的模型相应的损失函数作为预测损失函数对所述解码部分进行训练,而在编码部分,采用图正则化损失函数以及预测损失函数的混合损失函数对编码部分进行训练。
[0109]
而在本实施例中,在对网络对齐模型进行训练时,采用bootstrapping算法将新生成的节点对加入训练集中对网络对齐模型进行训练。
[0110]
具体的,在对网络对齐模型进行训练时,尤其是在对解码部分进行训练时,需要应用到训练集中的已经具有锚链的节点对,这样才能通过损失函数对该部分的参数进行调整,直至损失函数符合预设要求。而训练集中的并不是所有具有匹配关系的都设置有锚链,所以在进行训练时,会出现新的节点对,并将这些出现得到的新的节点对加图训练集中再对模型进行训练,这样有效缓解了训练数据稀疏的问题。同样的在对模型初步完成训练后,还会利用测试集中模型进行测试以调节模型的精度。
[0111]
在本文中,还通过实验对本方法进行验证,具体内容包括:
[0112]
实验在1个真实世界数据集(2个真实世界网络)上进行了实验,仅选择了数据集flickr和myspace进行实验。原因是在这个数据集中,flickr和myspace的边的数量相对节点数量来说较少,网络结构较为稀疏,同时属性数量也较少。而本文提出的模型的目的是能够进一步学习更好的节点表示以及局部的网络结构表示,以此来提升模型的效果,因此,与数据集allmovie和imdb和数据集douban online和douban offline相比,数据集flickr和myspace更加能够体现模型的效果。数据集的相关信息如表1所示。
[0113]
flickr和myspace数据集:flickr和myspace这两个子网被收集在文章中,然后按照文章中的方法进行处理。flickr的子网包含6714个节点,myspace的子网包含10733个节点。用户的性别用于表示节点属性,并且只有部分事实(groundtruth)是可用于对齐的。
[0114]
表1真实世界网络的数据信息
[0115][0116]
而本实验中的相关设置:
[0117]
其中,对衡量指标的设置,从预测角度和排名角度,使用最先进的指标评估网络对齐的性能。从预测视角来看,采用success@q,它指示前q个候选中是否出现真正的正匹配。更具体地说,对于每个锚对在基本事实中,如果对齐得分为在对齐矩阵s的第行中的前q个最高值范围内,节点的对齐输出被记录为成功案例:
[0118][0119][0120]
在公式(17)和(18)中,success
b/a
@q表示网络b/a中每个节点在网络a/b中的测试集中的命中数,success@q是双向计数的平均值。
[0121]
从排名角度来说,使用平均精度均值map(mean average precision)(即成对设置下的mrr)作为衡量指标:
[0122]
[0123][0124]
在公式(19)和(20)中,ranki是指网络a/b中测试集中的第i个锚节点在网络b/a中的基本事实对应物的排名位置。和success@q一样,map也是双向计数的平均。
[0125]
在实验中,success@q中q的取值为1,3,5和10。一个好的网络对齐模型应该具有高的success@q值和map值。
[0126]
在实验中,选择了基于迭代深度图学习的网络对齐方法作为模型的基线,实验中将加入不同知识表示学习方法的网络对齐模型与基线模型进行对比。
[0127]
而对于网络对齐模型中的超参数,嵌入维数d设置为100,对齐预测的损失函数中,边界超参数δ1、δ2、δ3设置为1。
[0128]
结果平均超过10次运行,以减轻随机性。所有实验都在处理器为i7-9700k,内存为16gb的geforce rtx2080ti服务器上进行,并通过pytorch来实现。
[0129]
为了验证网络对齐模型在网络对齐任务上的效果,在本实验中将模型与基于迭代深度图学习的网络对齐方法在数据集flickr和myspace上进行比较,训练集与测试集的比例为0.8:0.2,实验结果如表2所示。从实验结果中可以看出,将对齐预测部分设置为rotate时,模型的效果最为突出,尤其是在success@1以及map指标上。但是其他知识表示模型替换解码部分之后没有能够提高模型的效果,其原因可能是因为在网络数据集中,并没有赋予网络中的边和知识图谱中的关系一样多的信息,只是将其简单地设置为存在与不存在的含义,因此这样就大大减小了知识表示模型在对齐中的效果。而在rotate中,它将边的模量限制为1,将其作为源网络节点到目标网络节点的旋转,边只起到方向变换的作用,因此模型的效果会更加突出。同时,rotate采用了自对抗训练的负采样损失函数,这种损失函数与其他方式都不相同,模型效果的提升可能也与训练模式有关。
[0130]
表3则进一步给出了训练集与测试集比例为0.2:0.8时的模型效果比较。可以看出,在弱监督的情况下,将编码部分设置成complex时模型的效果最好,尤其是在success@1、success@3以及map指标。而将编码部分设置成transh时,则是在success@5和success@10的结果上更好。这说明在弱监督的情况下,超平面和复向量空间的设置可以提升模型的效果。
[0131]
表2模型在flickr和myspace数据集上的实验结果(训练集与测试集的比例为0.8:0.2)
[0132][0133]
表3模型在flickr和myspace数据集上的实验结果(训练集与测试集的比例为0.2:0.8)
[0134][0135]
为了进一步了解模型中训练集与测试集的比例对实验结果的影响情况,在本实验中对该参数进行了实验,实验过程中只改变该参数的值,并设置其他参数不变。实验过程中训练集的比例从开始的0.1增加到0.9,每次增加0.1,实验结果如图3和4所示。
[0136]
图3是指标success@10随训练集比例变化的情况,从图中可以看出当训练集比例较小时,即训练集比例为0.1、0.2和0.3时,编码部分为知识表示学习模型时效果更好。这说明,在弱监督的条件下,知识表示学习模型作为解码部分时效果更好。而当训练集比例增加之后,rotate模型作为编码部分时与原来的基于迭代深度图学习的网络对齐模型效果相似,而transh和complex模型作为编码部分的优势则逐渐变得不明显。
[0137]
而图4则是指标map随训练集比例变化的情况,从整体趋势来看,与success@10指标的变化情况相似,当编码部分为知识表示学习模型时,在训练集比例为0.1、0.2、0.3时,模型效果优于基于迭代深度图学习的网络对齐模型。但是在整个变化过程中,各个模型在map的指标变化上起伏更加大。与其他模型不同,rotate模型作为编码部分时,在训练集比例从0.7变化至0.8时,效果提升明显,但是从0.8变化至0.9时,模型效果提升并不明显。另一方面,相较于transe、transh和complex模型,distmult模型作为编码部分时,在map指标上随着训练集比例的增大,模型效果提升更加明显,说明双线性编码在对齐任务中的有效性。
[0138]
总结:本方法中提出的基于局部结构特征增强的网络对齐方法的网络对齐模型考虑到基于迭代深度图学习的网络对齐方法中忽略了节点特征中存在的噪声,同时也并没有考虑数据稀疏的问题,将目光瞄准于知识表示学习在节点特征学习以及缓解数据稀疏问题方面的作用,将知识表示学习模型加入到基于迭代深度图学习的网络对齐模型的解码部分。基于局部结构特征增强的模型尝试了5种经典的知识表示学习模型用于对齐模式,并在训练过程中加入了bootstrapping算法,解决网络对齐中的噪声问题和数据稀疏问题。模型选择稀疏的数据集flickr和myspace进行实验,实验结果表明,在训练集比例较小的时候,基于局部结构特征增强的网络对齐方法的效果优先于基于迭代深度图学习的网络对齐方法,而在训练集比例增加的情况下,rotate模型作为编码部分时,模型仍旧具有较好的效果。
[0139]
上述基于局部结构特征增强的网络对齐方法中,通过知识表示学习方法增强局部结构特征的刻画,同时缓解了网络噪声和数据稀疏的问题,而在模型训练中,设计了bootstrapping算法,将训练中新生成的对齐节点对输入到训练集中再次参加训练,能够进一步缓解数据稀疏的问题。
[0140]
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这
些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
[0141]
在一个实施例中,如图5所示,提供了一种基于局部结构特征增强的网络对齐装置,包括:训练集获取模块200、网络对齐模型训练模块210和网络对齐模块220,其中:
[0142]
训练集获取模块200,用于获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
[0143]
网络对齐模型训练模块210,用于将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
[0144]
网络对齐模块220,用于获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
[0145]
关于基于局部结构特征增强的网络对齐装置的具体限定可以参见上文中对于基于局部结构特征增强的网络对齐方法的限定,在此不再赘述。上述基于局部结构特征增强的网络对齐装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0146]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于局部结构特征增强的网络对齐方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
[0147]
本领域技术人员可以理解,图6中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0148]
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
[0149]
获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹
配关系的两节点之间具有锚链,并组成节点对;
[0150]
将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
[0151]
获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
[0152]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
[0153]
获取训练集,所述训练集中包括两个网络数据集,各所述网络数据集中均包括有多个节点的合集,以及代表两节点之间关系的边的合集,且两个所述网络数据集中存在匹配关系的两节点之间具有锚链,并组成节点对;
[0154]
将所述训练集输入网络对齐模型中进行训练,直至得到具备将两个网络进行对齐能力的已训练的网络对齐模型,其中,所述网络对齐模型包括编码部分以及解码部分,所述编码部分采用迭代深度图学习方法对网络数据集表示的网络结构进行优化,所述解码部分采用知识表示学习方法对优化后的网络结构进行对齐预测;
[0155]
获取待对齐的两个网络数据集,并将这两个网络数据集输入所述已训练的网络对齐模型,以得到两个网络中具备匹配关系的节点对。
[0156]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0157]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0158]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1