命名实体识别方法、装置、设备及存储介质与流程

文档序号:29473470发布日期:2022-04-02 06:02阅读:120来源:国知局
命名实体识别方法、装置、设备及存储介质与流程

1.本技术属于计算机技术领域,具体涉及一种命名实体识别方法、装置、设备及存储介质。


背景技术:

2.自然语言处理技术能够更好地实现人与计算机之间的交互,其中,命名实体识别是自然语言处理技术的一个重要组成部分。命名实体识别是指识别文本中具有特定意义的事物名称或者符号的过程,命名实体主要包括人名、地名、机构名、日期、专有名词等。若能更准确地识别出文本中的命名实体,有助于计算机更好地理解语言的语义、更好地执行任务,从而提高人机交互体验。
3.目前,常用的命名实体识别方案为:将待进行命名实体识别的目标文本输入bert模型,获得对应的词嵌入向量序列,将词嵌入向量序列输入至双向长短期记忆网络(bi-directional long short-term memory,bilstm)提取目标文本的上下文特征,然后将目标文本的上下文特征输入至条件随机场(conditional random field,crf),获得目标文本的命名实体对应的类别标签,对该类别标签进行整合,获得目标文本的命名实体识别结果。
4.发明人研究发现:通过上述方式进行命名实体识别,虽然可以有效地提取出文本中的命名实体,但也存在效率不高的问题。


技术实现要素:

5.为了解决现有技术中的上述问题,即为了提高命名实体识别的效率,本技术提供了一种命名实体识别方法、装置、设备及存储介质。
6.第一方面,本技术提供一种命名实体识别方法,包括:
7.获取待进行命名实体识别的目标文本;
8.获取目标文本对应的词嵌入向量序列;
9.将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理;
10.根据目标类别标签序列,得到目标文本的命名实体识别结果。
11.在一种可能的实现方式中,命名实体识别模型包括:全连接层和分类处理层,将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,包括:将词嵌入向量序列经过全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量;将目标特征向量经过分类处理层,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列。
12.在一种可能的实现方式中,获取目标文本对应的词嵌入向量序列,包括:通过包含预设注意力机制层数的roberta模型获取目标文本对应的词嵌入向量序列,roberta模型用于通过预设词典将目标文本中包含的文字转化为对应的数值序列,以及根据数值序列和预
训练词向量获取目标文本对应的词嵌入向量序列。
13.在一种可能的实现方式中,根据目标类别标签序列,得到目标文本的命名实体识别结果,包括:根据预设类别标签格式,对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签;提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。
14.在一种可能的实现方式中,命名实体识别模型是通过以下方式获取的:获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体;通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值;根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
15.在一种可能的实现方式中,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,包括:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
16.在一种可能的实现方式中,并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,包括:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
17.第二方面,本技术提供一种命名实体识别模型的训练方法,包括:
18.获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体;
19.通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值;
20.根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
21.在一种可能的实现方式中,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,包括:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
22.在一种可能的实现方式中,并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,包括:针对各目标特征向量,并行执行以下步骤:对目
标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
23.第三方面,本技术提供一种命名实体识别装置,包括:
24.第一获取模块,用于获取待进行命名实体识别的目标文本;
25.第二获取模块,用于获取目标文本对应的词嵌入向量序列;
26.处理模块,用于将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理;
27.第三获取模块,用于根据目标类别标签序列,得到目标文本的命名实体识别结果。
28.在一种可能的实现方式中,命名实体识别模型包括:全连接层和分类处理层,处理模块具体用于:将词嵌入向量序列经过全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量;将目标特征向量经过分类处理层,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列。
29.在一种可能的实现方式中,第二获取模块具体用于:通过包含预设注意力机制层数的roberta模型获取目标文本对应的词嵌入向量序列,roberta模型用于通过预设词典将目标文本中包含的文字转化为对应的数值序列,以及根据数值序列和预训练词向量获取目标文本对应的词嵌入向量序列。
30.在一种可能的实现方式中,第三获取模块具体用于:根据预设类别标签格式,对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签;提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。
31.在一种可能的实现方式中,该命名实体识别装置还包括第四获取模块,用于:获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体;通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值;根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
32.在一种可能的实现方式中,第四获取模块在用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量时,具体用于:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
33.在一种可能的实现方式中,第四获取模块在用于并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列时,具体用于:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对
应的目标类别标签。
34.第四方面,本技术提供一种命名实体识别模型的训练装置,包括:
35.获取模块,用于获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体;
36.训练模块,用于通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值;
37.处理模块,用于根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
38.在一种可能的实现方式中,训练模块具体用于:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
39.在一种可能的实现方式中,训练模块具体用于:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
40.第五方面,本技术提供一种电子设备,包括:处理器,以及与处理器通信连接的存储器;
41.存储器存储计算机执行指令;
42.处理器执行存储器存储的计算机执行指令,以实现如本技术第一方面所述的方法。
43.第六方面,本技术提供一种电子设备,包括:处理器,以及与处理器通信连接的存储器;
44.存储器存储计算机执行指令;
45.处理器执行存储器存储的计算机执行指令,以实现如本技术第二方面所述的方法。
46.第七方面,本技术提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序指令,计算机程序指令被执行时,实现如本技术第一方面所述的方法。
47.第八方面,本技术提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序指令,计算机程序指令被执行时,实现如本技术第二方面所述的方法。
48.第九方面,本技术提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现如本技术第一方面所述的方法。
49.第十方面,本技术提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现如本技术第二方面所述的方法。
50.本领域技术人员能够理解的是,在本技术中,通过获取待进行命名实体识别的目
标文本,获取目标文本对应的词嵌入向量序列;将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理;根据目标类别标签序列,得到目标文本的命名实体识别结果。由于本技术通过命名实体识别模型并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,因此,能够大大提高命名实体识别的效率,并能够提高命名实体识别的准确率。
附图说明
51.下面参照附图来描述本技术的洗衣机交互方法、装置、设备及存储介质的优选实施方式。附图为:
52.图1为本技术一实施例提供的应用场景示意图;
53.图2为本技术一实施例提供的命名实体识别方法的流程图;
54.图3为本技术的另一实施例提供的命名实体识别方法的流程图;
55.图4为本技术一实施例提供的命名实体识别模型获取方法的流程图;
56.图5为本技术一实施例提供的命名实体识别模型的训练方法的流程图;
57.图6为本技术一实施例提供的命名实体识别模型处理流程的示意图;
58.图7为本技术一实施例提供的命名实体识别装置的结构示意图;
59.图8为本技术一实施例提供的命名实体识别模型的训练装置的结构示意图;
60.图9为本技术一实施例提供的电子设备的结构示意图。
具体实施方式
61.首先,本领域技术人员应当理解的是,这些实施方式仅仅用于解释本技术的技术原理,并非旨在限制本技术的保护范围。本领域技术人员可以根据需要对其做出调整,以便适应具体的应用场合。
62.在本技术实施例中使用的术语是仅仅处于描述特定实施例的目的,而非旨在限制本发明。在本技术实施例中所使用的单数形式的“一种”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
63.应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示为:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
64.取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在
……
时”或“当
……
时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
65.还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的商品或者系统中还
存在另外的相同要素。
66.首先,对本技术涉及的部分技术术语进行解释说明:
67.bio,一种类别标签格式,其中,b表示开始(begin);i表示中间(intermediate);o表示其他(other),用于标记不是命名实体的字符;bio可以将真实命名实体类别标签比如名称(name),拆分成b-name和i-name两个代表命名实体的类别标签以及o表示不是命名实体的类别标签,bio在得到b-name后,即可以理解为得到了name这个命名实体,bio格式的召回率高。
68.bies,一种类别标签格式,其中,e表示结尾(end);s表示单个字符(single);bies可以将真实命名实体类别标签比如name,拆分成b-name、i-name、e-name、s-name以及o;bies需要得到b-name和e-name或是s-name才能认为得到了name这个命名实体,与bio格式相比,bies格式的准确率更高。
69.crf,是一个判别式的方法,其计算主要包含两个矩阵,分别为转移矩阵和发射矩阵。对应输出类别标签序列,转移矩阵负责输出类别标签序列顺序的合法性,比如b-name的下一个类别标签只能对应i-name或e-name,而不能是其他命名实体类别标签比如位置(location)对应的i-location。发射矩阵负责类别标签生成的概率,比如一个字对应的类别标签是b-name或者i-location的概率。
70.目前,比如在智能语音控制领域中通常会涉及短文本的命名实体识别,提取文本中的命名实体。常用的命名实体识别方案(即bert+bilstm+crf)具体处理流程包括:
71.(1)数据预处理:将标注数据转换成bert的输入格式,选择合适的批大小(batch_size);
72.(2)嵌入层(embedding layer):bert的输出序列作为embedding结果,即获得词嵌入向量序列;
73.(3)bilstm层:bilstm是指按句子顺序的正向和反向两层网络结构,两层结构在提取文本序列特征的时候是独立的,最后将两层网络的输出连接成一个向量,再通过全连接(dense)操作将输出转换到隐层大小(hidden_size)的维度。
74.(4)crf层:crf层主要是迭代优化转移矩阵和发射矩阵,以及利用转移矩阵和发射矩阵对bilstm层的输出做解码,预测的过程只需要解码计算;
75.(5)标签整合:将预测出的带bies的连续类别标签对应到真实的类别标签,并提取原文中对应位置的文本。
76.上述命名实体识别方案可以有效地提取出文本中的命名实体,但存在以下缺点:
77.(1)原生bert采用768维的hidden_size以及12层的注意力机制(attention),模型参数量大,训练速度慢,预测过程也需要非常多的资源;
78.(2)原生bert使用了预测句子对关系(next sentence prediction,nsp)任务,nsp任务用于预测一个句子对是不是上下文关系,而训练集数据都是单句的,并不存在句对,并且bert中的nsp任务也被普遍认为对提取句子特征没有明显作用;
79.(3)bilstm是对循环神经网络(recurrent neural network,rnn)的改进,是一种时序网络,后一个词的计算需要依赖前面词的计算结果,只能串行计算,不能并行;
80.(4)crf解码过程使用维特比(viterbi)方法,viterbi方法是在所有可能的路径中选择一条概率最高的路径,也就是产生一条最可能的类别标签序列,crf解码也是顺序执行
的,不能并行计算。
81.相关技术中,还可以通过以下两种方案进行命名实体的识别:第一种方案是使用word2vec、glove等固定词嵌入向量序列+lstm+crf,第二种方案是使用bert、gpt等预训练模型的预训练词嵌入向量序列+(lstm)+crf,其中,第二种方案也可以不用lstm网络。第二种方案中预训练模型的准确率更高一些,因为预训练模型在预训练过程中学习了大量的开放域文本特征,对词嵌入向量序列的特征空间划分更加精细,同一个词的词嵌入向量与不同的词组合可以表达多种语义,也就是一词多义。虽然获取词嵌入向量序列的方式不同,但是都采用了lstm和crf。而lstm只能串行计算,不能并行。crf解码也是顺序执行的,不能并行计算。这样就会导致一个问题,当线上服务的并发量比较大时,这种串行计算会严重拖慢服务响应时间。
82.由于lstm和crf都是按照文本顺序串行计算的,不能实现词(单个字也算词)粒度的并行计算,当线上服务请求量大时,串行计算就会成为瓶颈,导致计算资源不能被充分利用,请求堆积。基于上述第二种方案,通过实验,对第二种方案进行了改进,去掉了lstm部分,只使用bert+crf的方案时,每秒查询率queries-per-second)相较于有lstm的方案有所提高,但是图形处理器(graphics pprocessing unit,gpu)利用率依然会有跳变,原因是crf的解码过程也是串行计算,导致gpu利用率突然降低,当解码完成后,gpu利用率又回升到99%。由于crf的串行计算是由其本身的结构决定的,想要增加crf的并发量只能是增加机器,但是单个机器的利用率仍然不会提高。所以需要通过使用其他方法来得到与crf的输出相同的结果。
83.从输出角度来看,类别标签的总数是已知的,并且数量不多,当bert模型充分学习到训练集的语义特征后,完全可以直接对词嵌入向量序列在所有类别标签上使用归一化指数函数(softmax)做分类,即将命名实体识别问题转化成分类问题。但是这种分类结果没有再显式的计算类别标签序列的合法性,可能会出现b-name下一个类别标签为i-location的情况,这种情况下如果使用bio形式的标签就会出现大量的误召,因此,选择bies的形式,可以减少误召。采用bert+softmax方案后,通过对比,使用14万训练集对命名实体识别模型做微调(fine-tune)后,在3万测试集上softmax的最终分类结果与crf的结果基本相同,都达到99.5%以上,而测试集上预测错的数据,大部分都是标注数据本身错误导致的,说明bert+softmax方案在短文本的命名实体识别任务中可行并且效果不错;然后对该方案进行压力测试,qps由原来的100+提升到现在的500+,gpu的利用率稳定在99%,该方案能够很好地应对线上的高并发请求,节省计算资源。
84.基于上述问题,本技术提供一种命名实体识别方法、装置、设备及存储介质,通过获取目标文本对应的词嵌入向量序列,对词嵌入向量序列并行进行全连接处理及分类处理,获得目标文本的命名实体识别结果。因此,能够大大提高命名实体识别的效率,并能够提高命名实体识别的准确率。
85.以下,首先对本技术提供的方案的应用场景进行示例说明。
86.图1为本技术一实施例提供的应用场景示意图。如图1所示,本应用场景中,客户端101获取待进行命名实体识别的文本,将该文本发送给服务器102,服务器102识别文本中的命名实体,将命名实体发送给客户端101,客户端101显示命名实体。其中,服务器102识别文本中的命名实体的具体实现过程可以参见下述各实施例的方案。
87.需要说明的是,图1仅是本技术实施例提供的一种应用场景的示意图,本技术实施例不对图1中包括的设备进行限定,也不对图1中设备之间的位置关系进行限定。例如,在图1所示的应用场景中,还可以包括数据存储设备,该数据存储设备相对客户端101或者服务器102可以是外部存储器,也可以是集成在客户端101或者服务器102中的内部存储器。
88.接下来,通过具体实施例介绍命名实体识别方法。
89.图2为本技术一实施例提供的命名实体识别方法的流程图。本技术实施例的方法可以应用于电子设备中,该电子设备可以是如图1所示的客户端101或服务器102,或服务器集群等。如图2所示,本技术实施例的方法包括:
90.s201、获取待进行命名实体识别的目标文本。
91.本技术实施例中,示例性地,目标文本中包含有待识别的命名实体,目标文本比如为:一小时后打开冰箱,其中,一小时和冰箱均为待识别的命名实体。示例性地,目标文本可以是用户向执行本技术实施例的电子设备输入的,或者,是其它设备向执行本技术实施例的电子设备发送的,因此,可以获得待进行命名实体识别的目标文本。
92.s202、获取目标文本对应的词嵌入向量序列。
93.示例性地,可以通过预训练模型比如roberta模型,获取目标文本对应的词嵌入向量序列。具体地,对于目标文本包含的每个词(单个字也可以理解为一个词),都可以获得对应的词嵌入向量,词嵌入向量比如为一个768维的向量。对于如何获取目标文本对应的词嵌入向量序列,可参考相关技术或后续实施例,此处不再赘述。
94.s203、将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理。
95.该步骤中,在获得了目标文本对应的词嵌入向量序列后,可以将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列。示例性地,目标文本比如为:一小时后打开冰箱,预设类别标签比如包括时间(time)和设备名(devicename),采用上述bies类别标签格式,将该目标文本对应的词嵌入向量序列输入命名实体识别模型,可以得到目标文本中命名实体对应的目标类别标签序列为:b-time i-time e-time o o o b-devicename e-devicename。需要说明的是,预设类别标签可以按需设置,预设类别标签比如包括:devicename、time、模式(mode)、数量(number)及位置(location)。
96.s204、根据目标类别标签序列,得到目标文本的命名实体识别结果。
97.在获得了目标文本中命名实体对应的目标类别标签序列后,可以根据目标类别标签序列,得到目标文本的命名实体识别结果。示例性地,目标文本比如为:一小时后打开冰箱,则可以根据该目标文本中命名实体对应的目标类别标签序列b-time i-time e-time o o o b-devicename e-devicename,得到该目标文本的命名实体识别结果为:{“devicename”:“冰箱”,“time”:“一小时”}。对于如何根据目标类别标签序列,得到目标文本的命名实体识别结果,可参考相关技术或后续实施例,此处不再赘述。
98.在获得了目标文本的命名实体识别结果后,可以显示该命名实体识别结果。
99.本技术实施例提供的命名实体识别方法,通过获取待进行命名实体识别的目标文
本,获取目标文本对应的词嵌入向量序列;将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理;根据目标类别标签序列,得到目标文本的命名实体识别结果。由于本技术实施例通过命名实体识别模型并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,因此,能够大大提高命名实体识别的效率,并能够提高命名实体识别的准确率。
100.图3为本技术的另一实施例提供的命名实体识别方法的流程图。如图3所示,本技术实施例的方法可以包括:
101.s301、获取待进行命名实体识别的目标文本。
102.该步骤的具体描述可以参见图2所示实施例中s201的相关描述,此处不再赘述。
103.本技术实施例中,图2中s202步骤可以进一步包括如下的s302步骤:
104.s302、通过包含预设注意力机制层数的roberta模型获取目标文本对应的词嵌入向量序列。
105.其中,roberta模型用于通过预设词典将目标文本中包含的文字转化为对应的数值序列,以及根据数值序列和预训练词向量获取目标文本对应的词嵌入向量序列。
106.示例性地,预设注意力机制层数比如为3层,相比bert模型的12层注意力机制,能够大大减少网络参数量。对于目标文本中包含的文字,roberta模型的预设词典中有每个文字对应的序号,因此,可以通过roberta模型的预设词典,将目标文本中包含的文字转化为对应的数值序列,即目标文本中包含的文字对应的序号组成的数值序列。然后可以通过roberta模型的预训练词向量,对数值序列进行计算,得到目标文本对应的词嵌入向量序列。可以理解,对于数值序列,roberta模型的预训练词向量中有每个数值对应的词嵌入向量,词嵌入向量比如为一个768维的向量。若目标文本包含8个文字,则通过roberta模型可以获得对应的8个768维的词嵌入向量。
107.示例性地,若有多个待进行命名实体识别的目标文本,则可以设置同时输入至roberta模型的目标文本的个数,即batch_size,batch_size比如为16。通过roberta模型的预设词典,将各目标文本中包含的文字转化为对应的数值序列。为保持每个batch长度一致,按照最大长度(比如为32,即32个文字)设置对数值序列进行填充(padding),则数值序列的维度为:16*32。然后,可以通过roberta模型的预训练词向量,对数值序列进行计算,得到目标文本对应的词嵌入向量序列,词嵌入向量的维度比如为768维,则词嵌入向量序列的维度为16*32*768。
108.本技术实施例中,图2中s203步骤可以进一步包括如下的s303和s304两个步骤:
109.s303、命名实体识别模型包括:全连接层和分类处理层,将词嵌入向量序列经过全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量。
110.示例性地,全连接层比如为三个全连接层,第一个全连接层比如包含1024个神经元,第二个全连接层比如包含2048个神经元,第三个全连接层比如包含21个神经元,其中,第三个全连接层包含的神经元与预设类别标签的个数相同,即预设类别标签的个数也为21个。在获得了目标文本对应的词嵌入向量序列后,可以依次通过第一个全连接层、第二个全连接层及第三个全连接层对词嵌入向量序列在词嵌入向量维度上做全连接,并行提取词嵌
入向量序列包含的各词嵌入向量对应的目标特征向量。示例性地,对于上述实施例中的16*32*768维度的词嵌入向量序列,可以获得对应的16*32*21维度的目标特征向量。
111.s304、将目标特征向量经过分类处理层,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列。
112.示例性地,分类处理层比如包含softmax,则将目标特征向量经过softmax,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列。具体地,可以通过如下公式,获得目标特征向量对应每一个预设类别标签的概率:
[0113][0114]
其中,e表示自然数,n表示一个向量包含的数值总数,i表示n个数值中待计算概率的第i个数值,j表示n个数值中的每一个数值。
[0115]
然后可以确定概率中的最大概率对应的预设类别标签为目标类别标签,进而可以得到目标文本中命名实体对应的目标类别标签序列。
[0116]
本技术实施例中,图2中s204步骤可以进一步包括如下的s305和s306两个步骤:
[0117]
s305、根据预设类别标签格式,对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签。
[0118]
示例性地,预设类别标签格式比如为bies格式,则将符合bies格式的目标类别标签进行合并整理,将不符合bies格式的目标类别标签丢弃,获得整合处理后的目标类别标签序列。示例性地,目标文本比如为:一小时后打开冰箱,对应的整合处理前的目标类别标签序列为:b-time i-time e-time o o o b-devicename e-devicename,则提取b-time、i-time及e-time,合成为目标类别标签time,并记录下b-time、i-time及e-time的位置,将b-devicename和e-devicename合成为目标类别标签devicename,并记录下b-devicename和e-devicename位置。
[0119]
s306、提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。
[0120]
示例性地,参考s305步骤中的目标文本示例,对于目标文本为:一小时后打开冰箱,整合处理后的各目标类别标签分别为time和devicename;其中,对于time,可以提取目标文本中与b-time、i-time及e-time的位置对应的文本,即一小时;对于devicename,可以提取目标文本中与b-devicename和e-devicename的位置对应的文本,即冰箱,则可以得到该目标文本的命名实体识别结果为:{“devicename”:“冰箱”,“time”:“一小时”}。
[0121]
本技术实施例提供的命名实体识别方法,获取待进行命名实体识别的目标文本,通过包含预设注意力机制层数的roberta模型获取目标文本对应的词嵌入向量序列,命名实体识别模型包括全连接层和分类处理层,将词嵌入向量序列经过全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,将目标特征向量经过分类处理层,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列,根据预设类别标签格式,对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签,提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。由于本技术实施例通过命名实体识别模型的全连接层并行提取词
嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及通过命名实体识别模型的分类处理层并行对目标特征向量进行分类处理,对分类处理的结果使用准确率更高的预设类别标签格式进行整合,因此,能够大大提高命名实体识别的效率,并能够提高命名实体识别的准确率。
[0122]
图4为本技术一实施例提供的命名实体识别模型获取方法的流程图。本技术实施例的方法可以应用于电子设备中,该电子设备可以是服务器或服务器集群等。如图4所示,本技术实施例的方法包括:
[0123]
s401、获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列。
[0124]
其中,类别标签用于标识文本包含的命名实体。
[0125]
示例性地,采集业务日志数据,经过去重、去除业务无关语句、去除敏感词等操作,对得到的样本文本进行人工标注,再对标注后的样本文本进行7/2/1采样,即70%作为训练集、20%作为验证集、10-%作为测试集。预设类别标签的种类数量比如为21个,预设类别标签格式比如为bies格式,bies格式能够减少误召。标注后的样本文本格式比如为:
[0126]
一小时后打开冰箱
[0127]
b-time i-time e-time o o o b-devicename e-devicename
[0128]
其中,“一小时后打开冰箱”为样本文本,“b-time i-time e-time o o o b-devicename e-devicename”为样本文本对应的标注类别标签序列。
[0129]
s402、通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值。
[0130]
示例性地,将训练集中的样本文本通过roberta模型的预设词典将样本文本中包含的文字转化为对应的数值序列,然后通过roberta模型的预训练词向量,对该数值序列进行计算,得到样本文本对应的词嵌入向量序列。对于词嵌入向量序列,可以通过命名实体识别模型的多层全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,然后通过命名实体识别模型的softmax并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列。根据目标类别标签序列和对应的标注类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值。
[0131]
s403、根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
[0132]
在获得了损失函数值后,可以根据损失函数值,通过梯度的反向计算调整命名实体识别模型的参数,对命名实体识别模型进行迭代训练,直至损失函数值小于设置的阈值,得到训练完成的命名实体识别模型。
[0133]
本技术实施例提供的命名实体识别模型获取方法,通过获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类
别标签序列的损失函数值,根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。由于本技术实施例的命名实体识别模型并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,因此,能够大大提高命名实体的识别效率,并能够提高命名实体识别的准确率。
[0134]
在上述实施例的基础上,进一步地,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,可以包括:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
[0135]
示例性地,第一预设神经元个数比如为1024个,第二预设神经元个数比如为2048个,第三预设神经元个数与预设类别标签的个数相同,比如均为21个。在获得了词嵌入向量序列后,对于词嵌入向量序列包含的各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含1024个神经元的全连接层进行全连接处理,获得对应的第一特征向量,第一特征向量的长度为1024;将第一特征向量输入至包含2048个神经元的全连接层进行全连接处理,获得对应的第二特征向量,第二特征向量的长度为2048;将第二特征向量输入至包含21个神经元的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,目标特征向量的长度为21。
[0136]
在上述实施例的基础上,进一步地,并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,可以包括:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
[0137]
示例性地,预设类别标签的个数比如为21个,并行对目标特征向量通过softmax进行分类处理,得到目标特征向量对应21个预设类别标签中每个预设类别标签的概率,然后可以确定21个概率中的最大概率对应的预设类别标签为样本文本中命名实体对应的目标类别标签。根据各目标类别标签,可以获得样本文本中命名实体对应的目标类别标签序列。
[0138]
图5为本技术一实施例提供的命名实体识别模型的训练方法的流程图。本技术实施例的方法可以应用于电子设备中,该电子设备可以是服务器或服务器集群等。如图5所示,本技术实施例的方法包括:
[0139]
s501、获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列。
[0140]
其中,类别标签用于标识文本包含的命名实体。
[0141]
示例性地,采集业务日志数据,经过去重、去除业务无关语句、去除敏感词等操作,对得到的样本文本进行人工标注,再对标注后的样本文本进行7/2/1采样,即70%作为训练集、20%作为验证集、10-%作为测试集。预设类别标签的种类数量比如为21个。标注后的样本文本格式比如为:
[0142]
一小时后打开冰箱
[0143]
b-time i-time e-time o o o b-devicename e-devicename
[0144]
其中,“一小时后打开冰箱”为样本文本,“b-time i-time e-time o o o b-devicename e-devicename”为样本文本对应的标注类别标签序列。
[0145]
s502、通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值。
[0146]
示例性地,将训练集中的样本文本通过roberta模型的预设词典将样本文本中包含的文字转化为对应的数值序列,然后通过roberta模型的预训练词向量,对该数值序列进行计算,得到样本文本对应的词嵌入向量序列。对于词嵌入向量序列,可以通过命名实体识别模型的全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,然后通过命名实体识别模型的分类处理层,并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列。根据目标类别标签序列和对应的标注类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值。
[0147]
s503、根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
[0148]
在获得了损失函数值后,可以根据损失函数值,通过梯度的反向计算调整命名实体识别模型的参数,对命名实体识别模型进行迭代训练,直至损失函数值小于设置的阈值,得到训练完成的命名实体识别模型。
[0149]
本技术实施例提供的命名实体识别模型的训练方法,能够获得识别效率更高的命名实体识别模型,且能够提高命名实体识别的准确率。
[0150]
在上述实施例的基础上,示例性地,图6为本技术一实施例提供的命名实体识别模型处理流程的示意图。如图6所示,本技术实施例的方法包括:
[0151]
s601、获取待进行命名实体识别的目标文本。
[0152]
s602、通过包含3层注意力机制的roberta模型获取目标文本对应的词嵌入向量序列。
[0153]
针对词嵌入向量序列包含的各词嵌入向量,并行执行s603至s605步骤:
[0154]
s603、将词嵌入向量输入至包含1024个神经元的全连接层进行全连接处理,获得对应的第一特征向量。
[0155]
s604、将第一特征向量输入至包含2048个神经元的全连接层进行全连接处理,获得对应的第二特征向量。
[0156]
s605、将第二特征向量输入至包含21个神经元的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量。
[0157]
其中,预设类别标签的个数也为21个。
[0158]
针对各目标特征向量,并行执行s606步骤:
[0159]
s606、通过归一化指数函数对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签,预设类别标签格式为bies格式。
[0160]
其中,归一化指数函数即softmax。
[0161]
s607、根据各目标类别标签,获得样本文本中命名实体对应的bies格式的目标类别标签序列。
[0162]
s608、对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签。
[0163]
s609、提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。
[0164]
本技术实施例提供的命名实体识别模型,与目前的相关技术相比,使用了更简洁的包含3层注意力机制的roberta模型,即roberta-l3模型,大大减少了网络参数量;取消了nsp的预训练任务,使roberta-l3模型更符合业务场景的训练集分布;去掉了lstm和crf网络结构,直接对roberta的词嵌入向量序列使用softmax并行进行分类处理,再使用bies类别标签格式对分类结果做整合,能够进一步减少误召,保证了最终命名实体类别标签的准确率。由于去掉了影响并行计算的步骤,因此,能够大大提高计算效率,经过实测,本技术实施例提供的命名实体识别模型的识别效率较已有的相关方案提高了4倍,准确率也能达到99.5%以上。
[0165]
图7为本技术一实施例提供的命名实体识别装置的结构示意图,如图7所示,本技术实施例的命名实体识别装置700包括:第一获取模块701、第二获取模块702、处理模块703和第三获取模块704。其中:
[0166]
第一获取模块701,用于获取待进行命名实体识别的目标文本。
[0167]
第二获取模块702,用于获取目标文本对应的词嵌入向量序列。
[0168]
处理模块703,用于将词嵌入向量序列输入命名实体识别模型,得到命名实体识别模型的输出为目标文本中命名实体对应的目标类别标签序列,命名实体识别模型用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理。
[0169]
第三获取模块704,用于根据目标类别标签序列,得到目标文本的命名实体识别结果。
[0170]
在一些实施例中,命名实体识别模型包括:全连接层和分类处理层,处理模块703可以具体用于:将词嵌入向量序列经过全连接层,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量;将目标特征向量经过分类处理层,并行对目标特征向量进行分类处理,得到目标文本中命名实体对应的目标类别标签序列。
[0171]
可选的,第二获取模块702可以具体用于:通过包含预设注意力机制层数的roberta模型获取目标文本对应的词嵌入向量序列,roberta模型用于通过预设词典将目标文本中包含的文字转化为对应的数值序列,以及根据数值序列和预训练词向量获取目标文本对应的词嵌入向量序列。
[0172]
可选的,第三获取模块704可以具体用于:根据预设类别标签格式,对目标类别标签序列进行整合处理,获得整合处理后的各目标类别标签;提取目标文本中与整合处理后的各目标类别标签位置对应的文本,得到目标文本的命名实体识别结果。
[0173]
在一些实施例中,该命名实体识别装置700还可以包括第四获取模块705,用于:获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体;通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量
对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值;根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
[0174]
可选的,第四获取模块705在用于并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量时,可以具体用于:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
[0175]
可选的,第四获取模块705在用于并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列时,可以具体用于:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
[0176]
本技术实施例的装置,可以用于执行上述任一方法实施例中命名实体识别方法的方案,其实现原理和技术效果类似,此处不再赘述。
[0177]
图8为本技术一实施例提供的命名实体识别模型的训练装置的结构示意图,如图8所示,本技术实施例的命名实体识别模型的训练装置800包括:获取模块801、训练模块802和处理模块803。其中:
[0178]
获取模块801,用于获取训练集,训练集包含多个样本对,样本对中包含样本文本和样本文本对应的标注类别标签序列,类别标签用于标识文本包含的命名实体。
[0179]
训练模块802,用于通过训练集对命名实体识别模型进行训练,获取样本文本对应的词嵌入向量序列,并行提取词嵌入向量序列包含的各词嵌入向量对应的目标特征向量,以及并行对目标特征向量进行分类处理,得到样本文本中命名实体对应的目标类别标签序列,获取目标类别标签序列相对于标注类别标签序列的损失函数值。
[0180]
处理模块803,用于根据损失函数值,调整命名实体识别模型的参数,得到训练完成的命名实体识别模型。
[0181]
在一些实施例中,训练模块802可以具体用于:针对各词嵌入向量,并行执行以下步骤:将词嵌入向量输入至包含第一预设神经元个数的全连接层进行全连接处理,获得对应的第一特征向量;将第一特征向量输入至包含第二预设神经元个数的全连接层进行全连接处理,获得对应的第二特征向量;将第二特征向量输入至包含第三预设神经元个数的全连接层进行全连接处理,获得词嵌入向量对应的目标特征向量,第三预设神经元个数与预设类别标签的个数相同。
[0182]
在一些实施例中,训练模块802可以具体用于:针对各目标特征向量,并行执行以下步骤:对目标特征向量进行分类处理,获得目标特征向量对应每一个预设类别标签的概率;确定概率中的最大概率对应的预设类别标签,为样本文本中命名实体对应的目标类别标签。
[0183]
本技术实施例的装置,可以用于执行上述任一方法实施例中命名实体识别模型的
训练方法的方案,其实现原理和技术效果类似,此处不再赘述。
[0184]
图9为本技术一实施例提供的电子设备的结构示意图。示例性地,电子设备可以被提供为一服务器或计算机。参照图9,电子设备900包括处理组件901,其进一步包括一个或多个处理器,以及由存储器902所代表的存储器资源,用于存储可由处理组件901的执行的指令,例如应用程序。存储器902中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件901被配置为执行指令,以执行上述任一方法实施例。
[0185]
电子设备900还可以包括一个电源组件903被配置为执行电子设备900的电源管理,一个有线或无线网络接口904被配置为将电子设备900连接到网络,和一个输入输出(i/o)接口905。电子设备900可以操作基于存储在存储器902的操作系统,例如windows servertm,mac os xtm,unixtm,linuxtm,freebsdtm或类似。
[0186]
本技术还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行计算机执行指令时,实现如上的命名实体识别方法的方案以及命名实体识别模型的训练方法的方案。
[0187]
本技术还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如上的命名实体识别方法的方案以及命名实体识别模型的训练方法的方案。
[0188]
上述的计算机可读存储介质,上述可读存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。
[0189]
一种示例性的可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(application specific integrated circuits,简称:asic)中。当然,处理器和可读存储介质也可以作为分立组件存在于命名实体识别装置中或命名实体识别模型的训练装置中。
[0190]
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0191]
至此,已经结合附图所示的优选实施方式描述了本技术的技术方案,但是,本领域技术人员容易理解的是,本技术的保护范围显然不局限于这些具体实施方式。在不偏离本技术的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1