语料分类方法、装置、计算机可读存储介质及电子设备与流程

文档序号:33706970发布日期:2023-03-31 22:01阅读:27来源:国知局
语料分类方法、装置、计算机可读存储介质及电子设备与流程

1.本发明涉及自然语言处理技术领域,尤其涉及一种语料分类方法、装置、计算机可读存储介质及电子设备。


背景技术:

2.随着word2vec、gpt、bert等模型的出现,nlp(自然语言处理,natural language processing)的研究和应用越来越以预训练语言模型为中心。人们的尝试中,有这样一个流派,它通过改造下游任务、增加专家知识,使任务输入和输出适合原始语言模型,从而在零样本或少样本的场景中获得良好的任务效果——这就是提示学习。从bert开始,对预训练模型进行fine-tune已经成为了整个领域的常规范式。但是从gpt-3开始,一种新的范式开始引起大家的关注并越来越流行:prompting。prompt-tuning纯凭prompt撬动了大模型。prompt-tuning给每个任务定义了自己的prompt,拼接到数据上作为输入,同时freeze预训练模型进行训练,在没有加额外层的情况下,可以看到随着模型体积增大效果越来越好,最终追上了精调的效果。
3.一相关技术中提供了拷贝机制,主要是用于从输入文本序列中选择合适的子序列放到输出,序列中生成概率由两种模式的概率组合而成:生成模式和拷贝模式。然而该技术中,子序列的选择没有统一的标准,采用不同的技术方案选择的结果存在差异性,导致泛化能力降低。
4.另一相关技术中提供了主题增强模型,利用生成式主题模型挖掘主题,例如隐含狄利克雷分布(lda,latent dirichlet allocation),然后通过主题注意力机制将主题表示融入文本生成模型。主题表示提供了关于生成文本的高度语义表示,保证文本连贯性,然而模型结果受到主题挖掘质量影响较大。模型泛化能力差。


技术实现要素:

5.为解决现有技术中分类模型的泛化能力差的问题,本发明提供一种语料分类方法、装置、计算机可读存储介质及电子设备。
6.第一方面,本发明实施例提供一种语料分类方法,包括:
7.获取待分类语料;
8.利用第一分类模型对所述待分类语料进行分类预测,得到第一类别;
9.若所述第一类别属于预先定义的混淆类别范围,对所述待分类语料进行知识增强处理;
10.利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果。
11.在一些实现方式中,所述的语料分类预测方法还包括:
12.若所述第一类别不属于预先定义的混淆类别范围,则所述第一类别为分类预测结果。
13.在一些实现方式中,所述获取待预测语料之前,还包括:
14.获取标注语料作为第一数据集;
15.基于所述第一数据集进行预训练模型微调处理,得到第一分类模型;
16.采用所述第一分类模型对所述第一数据集进行测试,确定测试结果中的混淆类别,进而定义混淆类别范围;
17.对所述混淆类别范围对应的第二数据集进行知识增强得到第三数据集,并以所述第一分类模型为基础预训练模型对所述第三数据集进行prompt训练,得到第二分类模型。
18.在一些实现方式中,所述基于所述第一数据集进行预训练模型微调处理,得到第一分类模型,包括:
19.根据目标任务从预训练模型库中选取预训练模型;
20.在所述第一数据集上进行所述预训练模型微调得到第一分类模型。
21.在一些实现方式中,所述对所述混淆类别范围对应的第二数据集进行知识增强得到第三数据集,包括:
22.结合知识库,将所述混淆类别范围对应的第二数据集转换为预设prompt模板形式的数据,得到第三数据集。
23.在一些实现方式中,所述预设prompt模板包括:包含有两个空位置的自然语言模板,其中,所述两个空位置分别用于填入输入数据和结合知识库生成答案数据。
24.在一些实现方式中,所述预设prompt模板包括:结合知识库将输入数据转换为特征向量的模板。
25.第二方面,本发明实施例提供一种语料分类预测装置,包括:
26.数据获取模块,用于获取待分类语料;
27.第一预测模块,用于利用第一分类模型对所述待分类语料进行分类预测,得到第一类别;
28.知识增强模块,用于在所述第一类别属于预先定义的混淆类别范围的情况下对所述待分类语料进行知识增强处理;
29.第二预测模块,用于利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果。
30.第三方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被一个或多个处理器执行时,实现第一方面所述的语料分类预测方法。
31.第四方面,本发明实施例提供一种电子设备,包括存储器和一个或多个处理器,所述存储器上存储有计算机程序,所述计算机程序被所述一个或多个处理器执行时实现如第一方面所述的语料分类预测方法。
32.本发明的一个或多个实施例至少能够带来如下有益效果:
33.利用第一分类模型对获取的待分类语料进行分类预测,得到第一类别,在第一类别属于预先定义的混淆类别范围的情况下,对待分类语料进行知识增强处理,并利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果,利用prompt对噪音、混淆数据等是非常敏感的特性,去对混淆数据进行知识增强,增强后的数据更加便于区分,利用第二分类模型对知识增强后的数据进行分类预测,能够准确
预测出当前语料对应的类别,提高了模型对容易混淆数据样本的区分能力,提高模型的泛化能力。
附图说明
34.为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
35.图1是本发明实施例提供的一种语料分类方法流程图;
36.图2是本发明实施例提供的另一种语料分类方法流程图;
37.图3是本发明实施例提供的三种结合知识库将输入数据转换为特征向量的模板的原理示意图;
38.图4是本发明实施例提供的一种语料分类装置示意图。
具体实施方式
39.下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
40.随着word2vec、gpt、bert等模型的出现,nlp(自然语言处理,natural language processing)的研究和应用越来越以预训练语言模型为中心,于是出现了提示学习(prompt learning),它通过改造下游任务、增加专家知识,使任务输入和输出适合原始语言模型,从而在零样本或少样本的场景中获得良好的任务效果,prompt是给input加的一段文字或一组向量,让模型根据input和外加的prompt做masked language modeling(mlm,掩码语言模型)。在传统的用于nlp任务的监督学习系统中,输入x通常是文本数据,并基于模型p(y|x;θ)预测输出y。但是,监督学习面临的一个主要问题是,即为了训练模型p(y|x;θ),必须要有用于训练任务的监督数据,但找到这种适用数据是比较困难的。在nlp中,基于prompt的学习方法试图通过学习语言模型lm来规避这一问题,该lm对文本数据x本身的概率p(x;θ)进行建模并使用该概率来预测y,从而减少或消除了训练模型对大型监督数据集的需求。prompt-tuning方法可被用于文本分类任务,具体方式是通过构建标签词表,将分类问题转化为一个预测和标签相关词的问题。因此,这样的问题可以构建一个含有[mask]的模板,然后让mlm(掩码语言模型)去预测[mask]位置的单词。至此,分类任务被转化为了一个掩码语言建模问题。从2017-2019年开始,nlp模型发生了翻天覆地的变化,全监督范式发挥的作用越来越小。具体而言,研究重点开始转向预训练(pre-train)范式、微调(fine-tune)范式。在这一范式下,一个具有固定架构的模型通过预训练作为语言模型(lm),用来预测观测到的文本数据的概率。由于训练lm所需的原始文本数据需要足够丰富,因此,这些lm都是在比较大的数据集上训练完成。之后,通过引入额外的参数,并使用特定任务的目标函数对模型
进行微调,将预训练lm适应于不同的下游任务。在这种范式下,研究重点转向了目标工程,设计在预训练和微调阶段使用的训练目标(损失函数)。
[0041]
由于预训练模型的预测表现一定反映了训练样本的情况,那么,当预训练模型出现了预测结果不在标签集里面的情况,则一定反映了训练样本中某一类数据出现了类别混淆,以使用预训练模型预测全量的训练样本之后,将类别混淆的训练样本找出,即可判定训练样本中需要如何调整,除根据类别混淆情况探测之外,同样也可以使用训练样本的真实标签与预测标签的错误,找到那些根本无法区分的边缘样本。在实际应用中,可以通过将对话、翻译等包含nlu(自然语言理解)、nlg(自然语言生成)任务上进行知识增强,能够提高模型对容易混淆数据样本的区分能力,提高模型的泛化能力。
[0042]
实施例一
[0043]
图1示出了一种语料分类方法流程图,如图1所示,本实施例提供一种语料分类方法,包括步骤s110~步骤s150:
[0044]
步骤s110、获取待分类语料;
[0045]
步骤s120、利用第一分类模型对待分类语料进行分类预测,得到第一类别;
[0046]
步骤s130、确定第一类别是否属于预先定义的混淆类别范围;若第一分类属于预先定义的混淆类别范围,执行步骤s140;
[0047]
步骤s140、对待分类语料进行知识增强处理;
[0048]
步骤s150、利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果。
[0049]
其中,第一分类模型是获取标注语料作为第一数据集,基于第一数据集对选取的预训练模型进行微调处理得到的模型;混淆类别范围是基于第一分类模型对第一数据集进行测试的结果中的混淆类别定义的;第二分类模型是以第一分类模型为基础预训练模型,对混淆类别范围对应的第二数据集进行知识增强后的第三数据集进行prompt训练得到的模型。
[0050]
本实施例中,先利用第一分类模型对获取的待分类语料进行分类预测,得到第一类别,在第一类别属于预先定义的混淆类别范围的情况下,对待分类语料进行知识增强处理,并利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果,利用prompt对噪音、混淆数据等是非常敏感的特性,去对混淆数据进行知识增强,增强后的数据更加便于区分,利用第二分类模型对知识增强后的数据进行分类预测,能够准确预测出当前语料对应的类别。
[0051]
在一些实现方式中,上述语料分类预测方法还包括:
[0052]
若第一类别不属于预先定义的混淆类别范围,则执行步骤s160;
[0053]
步骤s160、将第一类别作为分类预测结果。
[0054]
本实施例中,第一分类不属于预先定义的混淆类别范围,表明当前待预测的语料中不包含混淆数据,直接采用第一分类模型进行预测即可实现分类预测。
[0055]
在一些实现方式中,如图2所示,步骤s110获取待预测语料之前,还包括:
[0056]
步骤s210、获取标注语料作为第一数据集;
[0057]
步骤s220、基于第一数据集进行预训练模型微调处理,得到第一分类模型;
[0058]
步骤s230、采用第一分类模型对第一数据集进行测试,确定测试结果中的混淆类
别,进而定义混淆类别范围;
[0059]
步骤s240、对混淆类别范围对应的第二数据集进行知识增强得到第三数据集,并以第一分类模型为基础预训练模型,对第三数据集进行prompt训练,得到第二分类模型。
[0060]
本实施例中,将获取的标注语料作为第一数据集x,进行预训练模型微调(fine-tune)处理,得到优化的第一分类模型m1,采用微调处理后的最优模型对第一数据集进行测试并记录测试结果,根据测试结果找出混淆类别,即相互之间区分度低的类别,例如,类别e1错误预测成e2,e2错误预测成e1,en错误预测成e1,等等,确定测试结果中的混淆类别e1,e2,

en,进而定义混淆类别范围—混淆类别集合e={e1,e2,...,en},将属于e的数据从第一数据集x中切分出来,得到数据第二数据集x0,对第二数据集x0进行知识增强得到第三数据集z0,并以第一分类模型为基础预训练模型,对第三数据集进行prompt训练,得到第二分类模型。
[0061]
在一些实现方式中,步骤s220中基于第一数据集进行预训练模型微调处理,得到第一分类模型,包括:
[0062]
步骤s220a、根据目标任务从预训练模型库中选取预训练模型;
[0063]
步骤s220b、在第一数据集上进行预训练模型微调得到第一分类模型。
[0064]
在本实施例中,预先建立预训练模型库,其中存放有多个预训练模型,通过预设的模型选取器根据目标任务需求选取预训练模型,目标任务可以是任意一种具体的自然语言处理任务,例如文本分类、命名实体识别等。
[0065]
在实际应用中,预训练模型可以是albert、roberta、tinybert等。每个类别预训练模型不做具体限定,可以是现有开源公开的、可以是训练累积得到。
[0066]
在一些实现方式中,步骤s240中对混淆类别范围对应的第二数据集进行知识增强得到第三数据集,包括:
[0067]
步骤s240a、结合知识库,将混淆类别范围对应的第二数据集转换为预设prompt模板形式的数据,得到第三数据集。
[0068]
其中,知识库存储字词或者实体对应的知识。
[0069]
在一些情况下,预设prompt模板包括:包含有两个空位置的自然语言模板,其中,两个空位置分别用于填入输入数据和结合知识库生成答案数据。
[0070]
示例性的,对于输入文本x,有函数f
prompt
(x),将x转化成prompt的形式x`,即:
[0071]
x`=f
prompt
(x)。
[0072]
该函数包括两步操作:
[0073]
首先,使用一个prompt模板,该模板为一段自然语言,并且包含有两个空位置:用于填入输入(文本)x的位置[x]和用于生成答案(文本)z的位置[z]。
[0074]
其次,把输入x填到[x]的位置。
[0075]
在另一些情况下,预设prompt模板包括:结合知识库将输入数据转换为特征向量的模板。通过将输入数据(第三数据集z0中的数据)转换为特征向量,作为第二分类模型m2的输入。
[0076]
示例性的,结合知识库将输入数据转换为特征向量的模板可以包括:
[0077]
kt:直接将知识文本(kt)追加到输入之中;
[0078]
kt-emb:使用encoder(编码器)先计算得到知识文本(kt)的表示,再叠加到文本表
示(输入)上;
[0079]
kg-emb:使用知识图谱表示来增强第一分类模型m1。
[0080]
三种结合知识库将输入数据转换为特征向量的模板的原理示意如图3所示。
[0081]
应当理解的是,本实施例中的知识增强的方案并不限于以上四种模板,其他可以实现知识增强的方案也可以应用于本方法中实现对混淆类别的知识增强。
[0082]
在以第一分类模型为基础预训练模型,对第三数据集进行prompt训练,得到第二分类模型时,freeze(固定)第一分类模型m1,利用第一分类模型m1进行prompt训练,得到最优的第二分类模型m2,使得训练出的第二分类模型m2能够有效预测混淆数据的类别。
[0083]
下面提供一个面向ner(命名实体识别)任务的应用实例:
[0084]
首先:获取语标注料进行预训练模型微调
[0085]
获取大量标注语料形成第一数据集x,其对应的标签集为y,根据ner(命名实体识别)任务选取某个预训练模型,进行该预训练模型的fine-tune,得到最优模型m1。
[0086]
其次,定义混淆范围e
[0087]
采用微调得到的最优模型(第一分类模型m1)进行整个第一数据集x的测试,根据测试结果找出混淆类别即相互之间区分度低的类别,如e1错误预测成e2,e2错误预测成e1等,混淆类别集合表示为e={e1,e2,...,en},第一数据集x中属于e的数据切分出来,得到第二数据集x0={x1,x2,...,xn},对应的标签集y0={y1,y2,...,yn},其中,x0是x的子集,y0是y的子集。
[0088]
再次,混淆数据知识增强
[0089]
以kt方案进行知识增强,将第二数据集x0进行知识增强变换为第三数据集z0,假设y0对应的知识集合为k0={k1,k2,...,kn},其中ki为知识库中与实体对应knowledge(知识)。
[0090]
假设3条数据x1、x2、x3对应的实体相同,但是分别是对应游戏、电影、书籍三个类别的数据,非常容易混淆。采用kt方案将标签y1,y2,y3对应的knowledge k1、k2、k3加入x1、x2、x3组成z1,z2,z3,如下:
[0091]
z1=[x1][k1]
[0092]
z2=[x2][k2]
[0093]
z3=[x3][k3]
[0094]
知识增强后的数据集z0作为训练数据,参与后续promt模型训练步骤。
[0095]
再次,promt模型训练
[0096]
freeze第一分类模型m1,进行prompt训练,得到最优的第二分类模型m2。
[0097]
最后,数据预测
[0098]
用第一分类模型m1和第二分类模型m2来对数据进行预测,先进行基于第一分类模型m1的预测得到第一类别,如果第一类别不在e内,则第一分类模型m1的预测结果即为最终预测结果;如果第一类别在e内,则进行知识增强后,采用第二分类模型m2进行预测,第二分类模型m2的预测结果为最终结果。
[0099]
本实施例的第一分类模型、第二分类模型克服了相关技术中预训练模型参数量巨大,训练和微调对硬件算力需求较大,提高了应用门槛的缺陷,预训练模型的利用效率明显提高,提示学习训练使得预训练模型应用更广泛,更频繁,解决了知识增强现有技术处理不
理想问题,使得应用场景多元化,降低了预训练模型适用门槛,节约了硬件成本,并推动了nlp领域的发展应用。
[0100]
实施例二
[0101]
图4示出了一种语料分类预测装置示意图,如图4所示,本实施例提供一种语料分类预测装置,包括:
[0102]
数据获取模块410,用于获取待分类语料;
[0103]
第一预测模块420,用于利用第一分类模型对待分类语料进行分类预测,得到第一类别;
[0104]
知识增强模块430,用于在第一类别属于预先定义的混淆类别范围的情况下对待分类语料进行知识增强处理;
[0105]
第二预测模块440,用于利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果。
[0106]
本实施例中,先利用第一分类模型对获取的待分类语料进行分类预测,得到第一类别,在第一类别属于预先定义的混淆类别范围的情况下,对待分类语料进行知识增强处理,并利用第二分类模型对知识增强处理后的待分类语料进行分类预测,得到第二类别作为分类预测结果,利用prompt对噪音、混淆数据等是非常敏感的特性,去对混淆数据进行知识增强,增强后的数据更加便于区分,利用第二分类模型对知识增强后的数据进行分类预测,能够准确预测出当前语料对应的类别。
[0107]
在一些实现方式中,第一预测模块420还用于:若第一类别不属于预先定义的混淆类别范围,则将第一类别作为分类预测结果。
[0108]
本实施例中,第一类别不属于预先定义的混淆类别范围,表明当前待预测的预料中不包含混淆数据,直接采用第一分类模型进行预测即可实现分类预测。
[0109]
在一些实现方式中,还包括模型训练模块450,模型训练模块450进一步包括:
[0110]
数据获取子模块450a,用于获取标注语料作为第一数据集;
[0111]
预训练模型微调子模块450b,用于基于第一数据集进行预训练模型微调处理,得到第一分类模型;
[0112]
混淆定义子模块450c,用于采用第一分类模型对第一数据集进行测试,确定测试结果中的混淆类别,进而定义混淆类别范围;
[0113]
提示学习训练子模块450d,用于对混淆类别范围对应的第二数据集进行知识增强得到第三数据集,并以第一分类模型为基础预训练模型对第三数据集进行prompt训练,得到第二分类模型。
[0114]
本实施例中,将获取的标注语料作为第一数据集x,进行预训练模型微调(fine-tune)处理,得到优化的第一分类模型m1,采用微调处理后的最优模型对第一数据集进行测试并记录测试结果,根据测试结果找出混淆类别,即相互之间区分度低的类别,例如,类别e1错误预测成e2,e2错误预测成e1,en错误预测成e1,等等,确定测试结果中的混淆类别e1,e2,

en,进而定义混淆类别范围—混淆类别集合e={e1,e2,...,en},将属于e的数据从第一数据集x中切分出来,得到数据第二数据集x0,对第二数据集x0进行知识增强得到第三数据集z0,并以第一分类模型为基础预训练模型对第三数据集进行prompt训练,得到第二分类模型。
[0115]
在一些实现方式中,预训练模型微调子模块450b在基于第一数据集进行预训练模型微调处理,得到第一分类模型,包括:
[0116]
根据目标任务从预训练模型库中选取预训练模型;以及
[0117]
在第一数据集上进行预训练模型微调得到第一分类模型。
[0118]
在一些情形中,预训练模型微调子模块450b可以包括:
[0119]
预训练模型库,用于存放多个预训练模型;
[0120]
模型选取器,用于根据具体任务进行在预训练模型基础上选取模型;
[0121]
模型微调器,用于在第一数据集上进行预训练模型fine-tune,得到最优模型,也即第一分类模型m1;
[0122]
模型存储器:将得到的第一分类模型m1保存,待后续直接调用。
[0123]
在本实施例中,预先建立预训练模型库,其中存放有多个预训练模型,通过预设的模型选取器根据目标任务需求选取预训练模型,目标任务可以是任意一种具体的自然语言处理任务,例如文本分类、命名实体识别等。
[0124]
在一些实现方式中,混淆定义子模块450c采用第一分类模型对第一数据集进行测试,确定测试结果中的混淆类别,进而定义混淆类别范围。定义混淆类别范围,也即混淆类别集合e={e1,e2,...,en},将属于e的数据从第一数据集x中切分出来,得到数据第二数据集x0。
[0125]
在一些实现方式中,提示学习训练子模块450d可以包括:
[0126]
知识库,用于存储字词或者实体对应的知识。
[0127]
知识增强器,用于将第二数据集x0转化为预设prompt模板形式的第三数据集z0。
[0128]
模型训练器,用于将第一分类模型m1的参数freeze,对转化后的第三数据集z0进行prompt训练,得到最优的prompt模型,也就是第二分类模型m2。
[0129]
模型存储器,用于将第二分类模型m2存储待用。
[0130]
在一些情况下,预设prompt模板包括:包含有两个空位置的自然语言模板,其中,两个空位置分别用于填入输入数据和结合知识库生成答案数据。
[0131]
示例性的,对于输入文本x,有函数f
prompt
(x),将x转化成prompt的形式x`,即:
[0132]
x`=f
prompt
(x)。
[0133]
该函数包括两步操作:
[0134]
首先,使用一个prompt模板,该模板为一段自然语言,并且包含有两个空位置:用于填入输入(文本)x的位置[x]和用于生成答案(文本)z的位置[z]。
[0135]
其次,把输入x填到[x]的位置。
[0136]
在另一些情况下,预设prompt模板包括:结合知识库将输入数据转换为特征向量的模板。通过将输入数据(第三数据集z0中的数据)转换为特征向量,作为第二分类模型m2的输入。
[0137]
示例性的,结合知识库将输入数据转换为特征向量的模板可以包括:
[0138]
kt:直接将知识文本(kt)追加到输入之中;
[0139]
kt-emb:使用encoder(编码器)先计算得到知识文本(kt)的表示,再叠加到文本表示(输入)上;
[0140]
kg-emb:使用知识图谱表示来增强第一分类模型m1。
[0141]
三种结合知识库将输入数据转换为特征向量的模板的原理示意如图3所示。
[0142]
在以第一分类模型为基础预训练模型对第三数据集进行prompt训练,得到第二分类模型时,freeze(固定)第一分类模型m1,利用第一分类模型m1进行prompt训练,得到最优的第二分类模型m2,使得训练出的第二分类模型m2能够有效预测混淆数据的类别。
[0143]
本实施例具有实施例一的全部有益效果,此处不再赘述。
[0144]
本领域的技术人员应当明白,上述各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何限定的硬件和软件结合。
[0145]
实施例三
[0146]
本实施例提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被一个或多个处理器执行时,实现实施例一的语料分类预测方法。
[0147]
本实施例中,计算机可读存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(static random access memory,简称sram),电可擦除可编程只读存储器(electrically erasable programmable read-only memory,简称eeprom),可擦除可编程只读存储器(erasable programmable read-only memory,简称eprom),可编程只读存储器(programmable read-only memory,简称prom),只读存储器(read-only memory,简称rom),磁存储器,快闪存储器,磁盘或光盘。方法的内容详见实施例一,此次不再赘述。
[0148]
实施例四
[0149]
本实施例提供一种电子设备,包括存储器和一个或多个处理器,存储器上存储有计算机程序,计算机程序被所述一个或多个处理器执行时实现实施例一的语料分类预测方法。
[0150]
本实施例中,处理器可以是专用集成电路(application specific integrated circuit,简称asic)、数字信号处理器(digital signal processor,简称dsp)、数字信号处理设备(digital signal processing device,简称dspd)、可编程逻辑器件(programmable logic device,简称pld)、现场可编程门阵列(field programmable gate array,简称fpga)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述实施例中的方法。在处理器上运行的计算机程序被执行时所实现的方法可参照本发明前述实施例提供的方法的具体实施例,此处不再赘述。
[0151]
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的系统和方法,也可以通过其它的方式实现。以上所描述的系统和方法实施例仅仅是示意性的。
[0152]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0153]
虽然本发明所揭露的实施方式如上,但所述的内容只是为了便于理解本发明而采
用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所揭露的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1