命名实体识别方法、装置、设备及存储介质与流程

文档序号:33631164发布日期:2023-03-28 22:59阅读:37来源:国知局
命名实体识别方法、装置、设备及存储介质与流程

1.本说明书涉及人工智能技术领域,尤其是涉及一种命名实体识别方法、装置、设备及存储介质。


背景技术:

2.命名实体识别(named entity recognition,简称ner)是信息提取的一个子任务,旨在将文本中的命名实体定位并分类为预先定义的类别。命名实体识别是自然语言处理中的热点研究方向之一。例如,在金融领域的文本中包含了大量命名实体,如果使用人工标注,就会花费较高的成本,且时效性很差。因此,目前多采用预训练模型来自动识别文本中的命名实体。但是,现有的预训练模型的识别精度有待提高。


技术实现要素:

3.本说明书实施例的目的在于提供一种命名实体识别方法、装置、设备及存储介质,以提高文本中命名实体识别的识别准确度。
4.为达到上述目的,一方面,本说明书实施例提供了一种命名实体识别方法,包括:
5.接收输入的文本;
6.获取所述文本的词向量及位置向量;
7.从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,并从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征;
8.从所述长依赖特征中提取所述文本中命名实体的内部依赖特征;
9.根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征;
10.根据所述隐层特征获得所述文本的命名实体识别结果。
11.本说明书实施例的命名实体识别方法中,所述获取所述文本的词向量及位置向量,包括:
12.对所述文本进行分词处理,获得所述文本的词语序列;
13.将所述词语序列输入至ner模型的gru中,获取所述文本的词向量及位置向量。
14.本说明书实施例的命名实体识别方法中,从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,包括:
15.基于ner模型的第一双向gru从所述词向量及位置向量中提取命名实体的首部位置特征,并基于所述ner模型的第二双向gru从所述词向量及位置向量中提取命名实体的尾部位置特征;
16.基于所述ner模型的第一激活函数生成所述首部位置特征的归一化结果,并基于所述ner模型的第二激活函数生成所述尾部位置特征的归一化结果。
17.本说明书实施例的命名实体识别方法中,从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征,包括:
18.基于ner模型的星型结构变换器star-transformer,从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征。
19.本说明书实施例的命名实体识别方法中,从所述长依赖特征中提取所述文本中命名实体的内部依赖特征,包括:
20.基于ner模型的图注意力网络gat从所述长依赖特征中提取所述文本中命名实体的内部依赖特征。
21.本说明书实施例的命名实体识别方法中,根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征,包括:
22.基于ner模型的第三激活函数生成所述文本中命名实体的隐层特征。
23.本说明书实施例的命名实体识别方法中,所述第三激活函数包括:
24.h=w1×hh
+w2×ht
+w3×hgat
25.其中,h为文本中命名实体的隐层特征,hh、h
t
、h
gat
分别对应为命名实体的归一化首部位置特征、命名实体的归一化尾部位置特征、命名实体的内部依赖特征,w1、w2、w3分别对应为hh、h
t
、h
gat
的权值。
26.本说明书实施例的命名实体识别方法中,所述ner模型对应的损失函数包括:
27.l=lh+l
t
+l
label
28.其中,l为总损失,lh为首部类别交叉熵损失,l
t
为尾部类别交叉熵损失,l
label
为命名实体类别标签损失。
29.本说明书实施例的命名实体识别方法中,根据所述隐层特征获得所述文本的命名实体识别结果,包括:
30.将所述隐层特征输入至ner模型的条件随机场crf层,获得所述文本的命名实体识别结果。
31.另一方面,本说明书实施例还提供了一种命名实体识别装置,包括:
32.文本接收模块,用于接收输入的文本;
33.向量获取模块,用于获取所述文本的词向量及位置向量;
34.第一提取模块,用于从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,并从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征;
35.第二提取模块,用于从所述长依赖特征中提取所述文本中命名实体的内部依赖特征;
36.特征生成模块,用于根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征;
37.结果生成模块,用于根据所述隐层特征获得所述文本的命名实体识别结果。
38.另一方面,本说明书实施例还提供了一种计算机设备,包括存储器、处理器、以及存储在所述存储器上的计算机程序,所述计算机程序被所述处理器运行时,执行上述方法的指令。
39.另一方面,本说明书实施例还提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被计算机设备的处理器运行时,执行上述方法的指令。
40.另一方面,本说明书实施例还提供了一种计算机程序产品,所述计算机程序产品
包括计算机程序,所述计算机程序被计算机设备的处理器运行时,执行上述方法的指令。
41.由以上本说明书实施例提供的技术方案可见,本说明书实施例不仅可以捕捉文本中词语间的具有方向性的长依赖特征,并从长依赖特征中捕捉文本中命名实体的内部依赖特征,还可以获取命名实体的边界信息(即命名实体的首尾位置特征),与传统的仅依赖命名实体的内部依赖特征的ner技术相比,本说明书实施例通过将命名实体的首尾位置特征和命名实体的内部依赖特征相结合的ner技术,既可以区分命名实体边界,同时增强了词语内的语义信息,从而提高了命名实体识别的识别准确度。
附图说明
42.为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。在附图中:
43.图1示出了本说明书一些实施例中的命名实体识别系统的结构框图;
44.图2示出了本说明书一些实施例中的命名实体识别方法的流程图;
45.图3示出了本说明书一些实施例中的命名实体识别模型的结构示意图;
46.图4示出了本说明书一些实施例中的star-transformer的结构示意图;
47.图5示出了本说明书一些实施例中的命名实体识别装置的结构框图;
48.图6示出了本说明书一些实施例中计算机设备的结构框图。
49.【附图标记说明】
50.10、客户端;
51.20、服务端;
52.51、文本接收模块;
53.52、向量获取模块;
54.53、第一提取模块;
55.54、第二提取模块;
56.55、特征生成模块;
57.56、结果生成模块;
58.602、计算机设备;
59.604、处理器;
60.606、存储器;
61.608、驱动机构;
62.610、输入/输出接口;
63.612、输入设备;
64.614、输出设备;
65.616、呈现设备;
66.618、图形用户接口;
67.620、网络接口;
68.622、通信链路;
69.624、通信总线。
具体实施方式
70.为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
71.本说明书实施例涉及基于深度学习的自然语言处理技术中的命名实体识别技术,可以应用于各种应用场景下的文本中的命名实体识别。鉴于传统的基于深度学习的命名实体识别(named entity recognition,ner)模型的识别精度不高,本说明书实施例提供了基于改进的ner模型的命名实体识别方案。
72.参考图1所示,本说明书一些实施例的命名实体识别系统包括客户端10和配置有改进的ner模型的服务端20。客户端10可以采集待识别的文本,并将文本提供给出服务端20。服务端20可以接收文本;获取所述文本的词向量及位置向量;从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,并从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征;从所述长依赖特征中提取所述文本中命名实体的内部依赖特征;根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征;根据所述隐层特征获得所述文本的命名实体识别结果。
73.例如,在一些实施例中,所述客户端10可以为自助终端设备、移动终端(即智能手机)、显示器、台式电脑、平板电脑、笔记本电脑、数字助理或智能可穿戴设备等。其中,智能可穿戴设备可以包括智能手环、智能手表、智能眼镜或智能头盔等。当然,所述客户端10并不限于上述具有一定实体的电子设备,其还可以为运行于上述电子设备中的软件。
74.例如,在一些实施例中,所述服务端20可以为具有运算和网络交互功能的电子设备;也可以为运行于该电子设备中,为数据处理和网络交互提供业务逻辑的软件。所述服务端20可以与所述客户端进行数据交互。
75.本说明书实施例提供了一种命名实体识别方法,可以应用于上述的服务端侧,参考图2所示,在一些实施例中,所述命名实体识别方法可以包括以下步骤:
76.步骤201、接收输入的文本。
77.步骤202、获取所述文本的词向量及位置向量。
78.步骤203、从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,并从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征。
79.步骤204、从所述长依赖特征中提取所述文本中命名实体的内部依赖特征。
80.步骤205、根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征。
81.步骤206、根据所述隐层特征获得所述文本的命名实体识别结果。
82.基于本说明书实施例的命名实体识别方法,不仅可以捕捉文本中词语间的具有方向性的长依赖特征,并从长依赖特征中捕捉文本中命名实体的内部依赖特征,还可以获取命名实体的边界信息(即命名实体的首尾位置特征),与传统的仅依赖命名实体的内部依赖
特征的ner技术相比,本说明书实施例通过将命名实体的首尾位置特征和命名实体的内部依赖特征相结合的ner技术,既可以区分命名实体边界,同时增强了词语内的语义信息,从而提高了命名实体识别的识别准确度。
83.在一些实施例中,接收的文本可以为包含一个或多个语句的中文或外文文本。
84.在本说明书的实施例中,改进的ner模型(以下简称ner模型)为预训练的深度学习模型。因此,在进行命名实体识别之前,需要预先训练出ner模型,并将训练好的ner模型配置于服务器中。
85.参考图3所示,在本说明书一些实施例中,ner模型主要包括:用于文本向量化的双向的门控循环单元(gate recurrent unit,gru),用于提取文本中命名实体的首尾位置特征的双向的gru_h和gru_t,用于提取文本中词语间的具有方向性的长依赖特征的星型结构变换器(star-transformer),以及图注意力网络(graph attention networks,gat)等。其中,在训练图3所示的ner模型时,可以采用如下所示的损失函数,以提高ner模型的预测精度。
86.l=lh+l
t
+l
label
87.其中,l为总损失,lh为首部类别交叉熵损失,l
t
为尾部类别交叉熵损失,l
label
为命名实体类别标签损失。
88.gru是一种循环神经网络(rnn),可以解决rnn中不能长期记忆和反向传播中的梯度衰减或爆炸等问题,gru与长短记忆网络(lstm)的作用类似,但比lstm更加简单,易于训练,从而有利于降低实现成本。
89.应当指出的是,图3所示的ner模型仅为示例性举例说明,在本说明书的其他实施例中,也可以采用其他任何可以实现相同或类似功能的模型结构,本说明书对此不作唯一限定。例如,在一示例性实施例中,根据需要,star-transformer也可以替换为双向长短记忆网络(bilstm)等。
90.在一些实施例中,以图3所示的ner模型为例,获取所述文本的词向量及位置向量,可以包括如下步骤:
91.(1)对所述文本进行分词处理,获得所述文本的词语序列。
92.(2)将所述词语序列输入至ner模型的双向的gru中,获取所述文本的词向量及位置向量。
93.在本说明书的实施例中,使用的gru为双向(即前向和反向)的gru。双向的gru可以用如下公式表示:
[0094][0095]
其中,为双向(即前向和反向)的gru的输出,为t时刻第i个前向的gru层的隐层状态,为t时刻第i个反向的gru层的隐层状态,为拼接符号(表示将左右两侧的向量拼接为一个向量),gru为gru层,为t时刻第i个标记表征,为t-1时刻第i个前向的gru层的隐层状态,为t+1时刻第i个反向的gru层的隐层状态。
中,“准备金率”和前一个词语“存款”具有依赖关系,方向由定语“存款”指向“准备金率”。“金融机构”和“存款”也有依赖关系,方向由定语“金融机构”指向“存款”。
[0111]
star-transformer是一种精简化的transformer,其核心思想是通过将完全连接的拓扑结构简化为星型结构(例如图4所示)。结合图4中的右侧部分,star-transformer的拓扑结构由一个中继节点s和n个卫星节点(例如图4中的h1~h8)组成。第i个卫星节点的状态表示一个文本序列中的第i个词语的特征。中继节点s充当虚拟集线器,从所有卫星节点收集信息并将信息分散到所有卫星节点。star-transformer提出了时间步循环更新的方法,每个卫星节点把输入向量作为初值,而中继节点把所有词语的向量的平均值作为初值。每个卫星节点的状态依据邻近节点的状态做更新,包括上一轮循环(即前一时刻)中的前一个节点的状态上一轮循环中的当前节点的状态上一轮循环的下一个节点的状态本轮循环(即当前时刻)中的当前节点ei和上一轮循环的中继节点s
t-1
。更新过程如下公式表示:
[0112][0113][0114]
其中,表示第i个词语的文本信息,为本轮循环中当前卫星节点的状态。中继节点的更新是由所有卫星节点的信息和上一轮循环的状态决定:
[0115][0116]
其中,为本轮循环中当前中继节点的状态,h
t
为本轮循环中各个卫星节点的状态。
[0117]
在一些实施例中,以图3所示的ner模型为例,从所述长依赖特征中提取所述文本中命名实体的内部依赖特征,可以包括:
[0118]
基于ner模型的gat从所述长依赖特征中提取所述文本中命名实体的内部依赖特征;即将star-transformer输出的长依赖特征输入至gat中,得到文本中命名实体的内部依赖特征。gat利用掩码自注意力层可以为相邻节点分配不同的重要性,从而实现捕捉文本中命名实体的内部依赖特征。因此,通过star-transformer和gat的结合,既可以关注gat的关联节点,还可以获取实体内部的结构化信息,从而丰富序列的表征,从而很好地弥补star-transformer在捕获短语(例如命名实体)内部依赖方面的不足。
[0119]
内部依赖特征可以是指同一个命名实体内的各个词之间的依赖特征。例如,在一示例性实施例中,在语句“xx国央行决定下调金融机构存款准备金率”中,“xx国央行”作为一个命名实体,其内包含有“xx国”和“央行”两个词,“xx国”和“央行”之间也存在依赖关系。
[0120]
在gat中,注意力系数e
ij
和归一化的注意力系数α
ij
均可以表示节点i的相邻节点j对该节点i的重要程度。
[0121][0122][0123]
其中,为hi层节点特征变换的权重参数,为hj层节点特征变换的权重参数,
att为计算两个节点相关度的函数,ni为图中节点i相邻的所有节点组成的域,leakyrelu为激活函数,exp为指数函数,a
t
为节点i相邻的节点j的权重向量,为节点i相邻的所有节点的权重向量。
[0124]
在一些实施例中,根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征(即归一化的隐含层特征),可以包括:基于ner模型的第三激活函数生成所述文本中命名实体的隐层特征。
[0125]
例如,以图3所示的ner模型为例,可以将所述首尾位置特征和所述内部依赖特征输入激活函数h=w1×hh
+w2×ht
+w3×hgat
中,从而获得所述文本中命名实体的隐层特征。其中,h为文本中命名实体的隐层特征,hh、h
t
、h
gat
分别对应为命名实体的归一化首部位置特征、命名实体的归一化尾部位置特征、命名实体的内部依赖特征,w1、w2、w3分别对应为hh、h
t
、h
gat
的权值。从激活函数h=w1×hh
+w2×
t
h+w3w
×gha中可以看出,本说明书的实施例中,不仅考虑了命名实体的内部依赖特征,还考虑了命名实体的归一化首部位置特征和尾部位置特征,从而提高了命名实体的识别准确度。
[0126]
应当注意的是,本说明书的实施例中,“文本中命名实体的隐层特征”实际上是指文本中包含命名实体在内的各个词或词组(即短语)的隐层特征。由于本说明书实施例中重点关注于命名实体识别,所以简称为文本中命名实体的隐层特征。此外,在本说明书其他部分中,例如“命名实体的首尾位置特征”、“命名实体的首部位置特征”、“命名实体的尾部位置特征”等的含义,亦是如此,不再一一赘述。
[0127]
在一些实施例中,根据所述隐层特征获得所述文本的命名实体识别结果可以包括:将所述隐层特征输入至ner模型的条件随机场(conditional random field,crf)层,获得所述文本的命名实体识别结果。crf是一个判别式模型,可以根据输入序列x来给出输出序列y的概率分布。具体而言,设x与y是随机变量,p(y|x)是给定x时y的条件概率分布,若随机变量y构成的是一个马尔科夫随机场,则称条件概率分布p(y|x)是条件随机场。在本说明书的实施例中,由于命名实体识别可能有很多个类别,y可以是对应与每种命名实体识别类别下的概率,最大概率即为命名实体识别的类别。
[0128]
在一示例性实施例中,若接收的文本可以如下:
[0129]“初步统计,2022年二季度末,xx国金融业机构总资产为407.42万亿元,同比增长9.7%,其中,银行业机构总资产为367.68万亿,同比增长9.4%;证券业机构总资产为13.1万亿元,同比增长16.3%;保险业机构总资产为26.64万亿元,同比增长11%。”[0130]
基于本说明书实施例的命名实体识别方法,可以得到如下所示的识别结果:
[0131]“初步统计,[2022年二季度]time末,我国[金融业机构总资产]term为[407.42万亿]num[元]money,同比增长[9.7%]num,其中,[银行业机构总资产]term为[367.68万亿]num[元]money,同比增长[9.4%]num;[证券业机构总资产]term为[13.1万亿]num[元]money,同比增长[16.3%]num;[保险业机构总资产]term为[26.64万亿]num[元]money,同比增长[11%]num。”[0132]
其中,中括号内的词组为识别出的命名实体(例如“[2022年二季度]”等),time(时间)、num(数量)、money(货币)为命名实体类别。
[0133]
虽然上文描述的过程流程包括以特定顺序出现的多个操作,但是,应当清楚了解,这些过程可以包括更多或更少的操作,这些操作可以顺序执行或并行执行(例如使用并行
处理器或多线程环境)。
[0134]
与上述的命名实体识别方法对应,本说明书实施例还提供了一种命名实体识别装置,其可以配置于上述的服务端上,参考图5所示,在一些实施例中,命名实体识别装置可以包括:
[0135]
文本接收模块51,用于接收输入的文本;
[0136]
向量获取模块52,用于获取所述文本的词向量及位置向量;
[0137]
第一提取模块53,用于从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,并从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征;
[0138]
第二提取模块54,用于从所述长依赖特征中提取所述文本中命名实体的内部依赖特征;
[0139]
特征生成模块55,用于根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征;
[0140]
结果生成模块56,用于根据所述隐层特征获得所述文本的命名实体识别结果。
[0141]
本说明书实施例的命名实体识别装置中,从所述词向量及位置向量中提取所述文本中命名实体的首尾位置特征,包括:
[0142]
基于ner模型的第一双向gru从所述词向量及位置向量中提取命名实体的首部位置特征,并基于所述ner模型的第二双向gru从所述词向量及位置向量中提取命名实体的尾部位置特征;
[0143]
基于所述ner模型的第一激活函数生成所述首部位置特征的归一化结果,并基于所述ner模型的第二激活函数生成所述尾部位置特征的归一化结果。
[0144]
本说明书实施例的命名实体识别装置中,从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征,包括:
[0145]
基于ner模型的星型结构变换器star-transformer,从所述词向量及位置向量中提取所述文本中词语间的具有方向性的长依赖特征。
[0146]
本说明书实施例的命名实体识别装置中,从所述长依赖特征中提取所述文本中命名实体的内部依赖特征,包括:
[0147]
基于ner模型的图注意力网络gat从所述长依赖特征中提取所述文本中命名实体的内部依赖特征。
[0148]
本说明书实施例的命名实体识别装置中,根据所述首尾位置特征和所述内部依赖特征,生成所述文本中命名实体的隐层特征,包括:
[0149]
基于ner模型的第三激活函数生成所述文本中命名实体的隐层特征。
[0150]
本说明书实施例的命名实体识别装置中,所述第三激活函数包括:
[0151]
h=w1×hh
+w2×ht
+w3×hgat
[0152]
其中,h为文本中命名实体的隐层特征,hh、h
t
、h
gat
分别对应为命名实体的归一化首部位置特征、命名实体的归一化尾部位置特征、命名实体的内部依赖特征,w1、w2、w3分别对应为hh、h
t
、h
gat
的权值。
[0153]
本说明书实施例的命名实体识别方法中,所述ner模型对应的损失函数包括:
[0154]
l=lh+l
t
+l
label
[0155]
其中,l为总损失,lh为首部类别交叉熵损失,l
t
为尾部类别交叉熵损失,l
label
为命名实体类别标签损失。
[0156]
本说明书实施例的命名实体识别装置中,根据所述隐层特征获得所述文本的命名实体识别结果,包括:
[0157]
将所述隐层特征输入至ner模型的条件随机场crf层,获得所述文本的命名实体识别结果。
[0158]
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
[0159]
需要说明的是,本说明书的实施例中,所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权同意且经过各方充分授权的信息和数据。
[0160]
本说明书的实施例还提供一种计算机设备。如图6所示,在本说明书一些实施例中,所述计算机设备602可以包括一个或多个处理器604,诸如一个或多个中央处理单元(cpu)或图形处理器(gpu),每个处理单元可以实现一个或多个硬件线程。计算机设备602还可以包括任何存储器606,其用于存储诸如代码、设置、数据等之类的任何种类的信息,一具体实施例中,存储器606上并可在处理器604上运行的计算机程序,所述计算机程序被所述处理器604运行时,可以执行上述任一实施例所述命名实体识别方法的指令。非限制性的,比如,存储器606可以包括以下任一项或多种组合:任何类型的ram,任何类型的rom,闪存设备,硬盘,光盘等。更一般地,任何存储器都可以使用任何技术来存储信息。进一步地,任何存储器可以提供信息的易失性或非易失性保留。进一步地,任何存储器可以表示计算机设备602的固定或可移除部件。在一种情况下,当处理器604执行被存储在任何存储器或存储器的组合中的相关联的指令时,计算机设备602可以执行相关联指令的任一操作。计算机设备602还包括用于与任何存储器交互的一个或多个驱动机构608,诸如硬盘驱动机构、光盘驱动机构等。
[0161]
计算机设备602还可以包括输入/输出接口610(i/o),其用于接收各种输入(经由输入设备612)和用于提供各种输出(经由输出设备614)。一个具体输出机构可以包括呈现设备616和相关联的图形用户接口618(gui)。在其他实施例中,还可以不包括输入/输出接口610(i/o)、输入设备612以及输出设备614,仅作为网络中的一台计算机设备。计算机设备602还可以包括一个或多个网络接口620,其用于经由一个或多个通信链路622与其他设备交换数据。一个或多个通信总线624将上文所描述的部件耦合在一起。
[0162]
通信链路622可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路622可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务端等的任何组合。
[0163]
本技术是参照本说明书一些实施例的方法、设备(系统)、计算机可读存储介质和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理器的处理器以产生一个机器,使得通过计算机或其他可编程数据处理器的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中
指定的功能的装置。
[0164]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理器以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0165]
这些计算机程序指令也可装载到计算机或其他可编程数据处理器上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0166]
在一个典型的配置中,计算机设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0167]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0168]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算机设备访问的信息。按照本说明书中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0169]
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0170]
本说明书实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理器来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0171]
还应理解,在本说明书实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
[0172]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0173]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0174]
以上所述仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1