语义理解模型的训练方法、语义处理方法、装置及存储介质与流程

文档序号:19947766发布日期:2020-02-18 09:43阅读:230来源:国知局
语义理解模型的训练方法、语义处理方法、装置及存储介质与流程

本发明涉及机器学习技术,尤其涉及一种语义理解模型的训练方法、语义处理方法、装置及存储介质。



背景技术:

全双工语音交互的使用场景中,需要在多个音源同时持续发出声音的多声源环境中实现以下操作:例如对比语音身份的识别(男、女、儿童),触发不同内容的对话,语音情绪识别、音乐/歌声识别等;环境处理,针对背景的噪声识别与回声消除,这一过程中语义理解模型全双工的对话场景下,背景噪声、和他人的闲聊等领域无关(ood,out-of-domain)的语料更容易被助手收听进来,这样的语料如果被智能助手误响应,那么交互成功率较低,影响用户的使用体验。因此,在全双工场景下对对话系统中的领域意图识别精度要求更高,需要语义理解模型懂得何时该拒识(即拒绝响应),何时该响应用户说的话,以提升用户的使用体验。



技术实现要素:

有鉴于此,本发明实施例提供一种语义理解模型的训练方法、语义处理方法、装置及存储介质,能够使得语义理解模型的泛化能力更强,提升语义理解模型的训练精度与训练速度;同时还可以充分利用已有的噪声语句来获取模型训练上的增益,使得语义理解模型能够适应不同的使用场景,避免环境噪声对语义理解模型的影响。

本发明实施例的技术方案是这样实现的:

本发明提供了一种语义理解模型训练方法,其特征在于,所述方法包括:

获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;

对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;

通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;

响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;

根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新。

上述方案中,所述对所述主动学习进程中所获取的带有噪声的语句样本进行标注,以形成所述第一训练样本集合,包括:

确定所述带有噪声的语句样本的样本类型;

对所述语句样本的样本类型中的负例样本进行排序,

根据对所述负例样本的排序结果,为所述负例样本配置相应的权重,以形成包括不同权重训练样本的第一训练样本集合。

本发明还提供了、一种语义理解模型的语义处理方法,所述方法包括:

获取语音指令信息,并将所述语音指令转换为相应的可识别文本信息;

通过所述语义理解模型的语义表示层网络,确定与可识别文本信息所对应的至少一个词语级的隐变量;

通过所述语义理解模型的领域无关检测器网络,根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相匹配的对象;

通过所述语义理解模型的领域分类网络;根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相对应的任务领域;

根据与所述词语级的隐变量相匹配的对象,和与所述词语级的隐变量相对应的任务领域,触发相应的业务进程,以实现完成与所述语音指令信息相对应的任务,

其中,所述语义理解模型基于如权利要求1至10任一项所述的方法训练得到。

本发明实施例还提供了一种语义理解模型的训练装置,所述训练装置包括:

数据传输模块,用于获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;

去噪模块,用于对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;

语义理解模型训练模块,用于通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;

所述语义理解模型训练模块,用于响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;

所述语义理解模型训练模块,用于根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新。

上述方案中,

所述去噪模块,用于确定与所述语义理解模型的使用环境相匹配的动态噪声阈值;

所述去噪模块,用于根据所述动态噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述动态噪声阈值相匹配的第二训练样本集合。

上述方案中,

所述去噪模块,用于确定与所述语义理解模型相对应的固定噪声阈值;

所述去噪模块,用于根据所述固定噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述固定噪声阈值相匹配的第二训练样本集合。

上述方案中,

所述语义理解模型训练模块,用于将所述第二训练样本集合中不同语句样本,代入由所述语义理解模型的领域无关检测器网络和领域分类网络所组成的任务相关输出层网络所对应的损失函数;

所述语义理解模型训练模块,用于确定所述损失函数满足相应的收敛条件时对应所述语义理解模型中领域无关检测器网络参数和领域分类网络参数作为所述语义理解模型的更新参数。

上述方案中,

所述语义理解模型训练模块,用于通过所述语义理解模型的更新参数,确定与所述第二训练样本集合相匹配的第二噪声参数,所述第二噪声参数用于表征所述第二训练样本集合中平行语句样本的噪声值;

所述语义理解模型训练模块,用于当所述第二噪声参数到达相应的噪声值阈值时,

所述语义理解模型训练模块,用于根据所述第二噪声参数的噪声值,对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新,直至所述语义理解模型的领域无关检测器网络和所述领域分类网络构成的任务相关输出层网络对应的损失函数满足对应的收敛条件。

上述方案中,

所述语义理解模型训练模块,用于响应于所述语义理解模型的领域无关检测器网络和领域分类网络所组成的任务相关输出层网络所对应的损失函数,

所述语义理解模型训练模块,用于对所述语义理解模型的语义表示层网络进行参数调整,以实现所述语义表示层网络的参数与所述任务相关输出层网络所对应的损失函数相适配。

上述方案中,

所述语义理解模型训练模块,用于对所述第二训练样本集合进行负例处理,以形成与所述第二训练样本集合相对应的负例样本集合,其中,所述负例样本集合用于调整所述语义理解模型的领域无关检测器网络参数和领域分类网络参数调整;

所述语义理解模型训练模块,用于根据所述负例样本集合确定相应的双语评估研究值,其中,所述双语评估研究值,用于作为监督参数对所述语义理解模型的语义理解结果进行评价。

上述方案中,

所述语义理解模型训练模块,用于将所述语义理解模型的领域分类网络中待输出语句进行随机组合,以形成与所述第一训练样本集合相对应的负例样本集合;

所述语义理解模型训练模块,用于对所述语义理解模型的领域分类网络中待输出语句进行随机删除处理或替换处理以形成与所述第一训练样本集合相对应的负例样本集合。

上述方案中,

所述语义理解模型训练模块,用于对数据源中的训练样本进行召回处理;

所述语义理解模型训练模块,用于根据所述召回处理的结果,触发相应的主动学习进程,以实现获取所述数据源中带有噪声的语句样本;

所述语义理解模型训练模块,用于对所述主动学习进程中所获取的带有噪声的语句样本进行标注,以形成所述第一训练样本集合。

上述方案中,

所述语义理解模型训练模块,用于确定所述带有噪声的语句样本的样本类型;

所述语义理解模型训练模块,用于对所述语句样本的样本类型中的负例样本进行排序,

所述语义理解模型训练模块,用于根据对所述负例样本的排序结果,为所述负例样本配置相应的权重,以形成包括不同权重训练样本的第一训练样本集合。

本发明实施例还提供了一种语义理解模型处理装置,所述装置包括:

文本转换模块,用于获取语音指令信息,并将所述语音指令转换为相应的可识别文本信息;

语义表示层网络模块,用于通过所述语义理解模型的语义表示层网络,确定与可识别文本信息所对应的至少一个词语级的隐变量;

领域无关检测器网络模块,用于通过所述语义理解模型的领域无关检测器网络,根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相匹配的对象;

领域分类网络模块,用于通过所述语义理解模型的领域分类网络;根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相对应的任务领域;

信息处理模块,用于根据与所述词语级的隐变量相匹配的对象,和与所述词语级的隐变量相对应的任务领域,触发相应的业务进程,以实现完成与所述语音指令信息相对应的任务,

本发明实施例还提供了一种语义理解模型的训练装置,所述训练装置包括:

存储器,用于存储可执行指令;

处理器,用于运行所述存储器存储的可执行指令时,实现前序的语义理解模型的训练方法。

本发明实施例还提供了一种融合图像处理装置,所述图像处理装置包括:

存储器,用于存储可执行指令;

处理器,用于运行所述存储器存储的可执行指令时,实现前序的语义理解模型的语义处理方法。

本发明实施例还提供了一种计算机可读存储介质,存储有可执行指令,其特征在于,所述可执行指令被处理器执行时实现前序的语义理解模型的训练方法,或者实现前序的语义处理方法。

本发明实施例具有以下有益效果:

通过获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新,由此,使得语义理解模型的泛化能力更强,提升语义理解模型的训练精度与训练速度,同时还可以有效充分利用已有的噪声语句对模型训练的增益,使得语义理解模型能够适应不同的使用场景,避免环境噪声对语义理解模型的影响。

附图说明

图1为本发明实施例提供的语义理解模型训练方法的使用场景示意图;

图2为本发明实施例提供的语义理解模型训练装置的组成结构示意图;

图3为现有技术中,基于rnn的seq2seq模型生成语义理解结果的示意图;

图4为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图;

图5为本发明实施例中语义表示层网络模型一个可选的结构示意图;

图6为本发明实施例中语义表示层网络模型一个可选的词语级机器阅读示意图;

图7为本发明实施例中语义表示层网络模型中编码器一个可选的结构示意图;

图8为本发明实施例中语义表示层网络模型中编码器的向量拼接示意图;

图9为本发明实施例中语义表示层网络模型中编码器的编码过程示意图;

图10为本发明实施例中语义表示层网络模型中解码器的解码过程示意图;

图11为本发明实施例中语义表示层网络模型中解码器的解码过程示意图;

图12为本发明实施例中语义表示层网络模型中解码器的解码过程示意图;

图13为本发明实施例中语义表示层网络模型一个可选的语句级机器阅读示意图;

图14为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图;

图15为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图;

图16a为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图;

图16b为本发明实施例提供的语义理解模型训练方法一个可选的边界语料扩充示意图;

图17为本发明实施例提供的语义理解模型处理装置的组成结构示意图;

图18为本发明实施例提供的语义理解模型的语义处理方法一个可选的流程示意图;

图19为本发明实施例提供的语义理解模型训练方法的使用场景示意图;

图20为本发明实施例提供的语义理解模型训练方法的使用场景示意图;

图21为本发明所提供的语义理解模型训练方法的一个可选的处理流程示意图;

图22为本发明实施例提供的语义理解模型训练方法的处理过程中主动学习进程示意图;

图23为本发明实施例提供的语义理解模型一个可选的模型结构示意图;

图24为封装于车载系统中使用语义理解模型唤醒应用的示意图;

图25为封装于车载系统中使用语义理解模型查阅天气的示意图。

具体实施方式

为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。

对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。

1)机器阅读理解:一种将文本问题和相关文档作为输入将文本答案作为输出的自动问答技术

2)bert:全称为bidirectionalencoderrepresentationsfromtransformers,一种利用海量文本的语言模型训练方法。该方法被广泛用于多种自然语言处理任务,如文本分类、文本匹配、机器阅读理解等。

3)人工神经网络:简称神经网络(neuralnetwork,nn),在机器学习和认知科学领域,是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于对函数进行估计或近似。

4)模型参数:是使用通用变量来建立函数和变量之间关系的一个数量。在人工神经网络中,模型参数通常是实数矩阵。

5)api:全称applicationprogramminginterface,可语义理解成应用程序接口,是一些预先定义的函数,或指软件系统不同组成部分衔接的约定。目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问原码,或理解内部工作机制的细节。

6)sdk:全称softwaredevelopmentkit,可语义理解成软件开发工具包,是为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合广义上包括辅助开发某一类软件的相关文档、范例和工具的集合。

7)生成对抗网络(generativeadversarialnetwork,简称gan):非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习,一般由一个生成网络与一个判别网络组成。生成网络从潜在空间(latentspace)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。

8)全双工:在人机交互对话场景下,不用重复唤醒,基于流式语音、语义技术让智能助手拥有边听边想,随时打断的交互能力。

9)自然语言理解:nlu(naturallanguageunderstanding),在对话系统中对用户所说的话进行语义的信息抽取,包括领域意图识别和槽填充(slotfilling)。

10)多任务学习:multi-tasklearning,在机器学习领域,通过同时对多个相关任务进行联合学习、优化,可以达到比单个任务更好的模型精度,多个任务通过共享表示层来彼此帮助,这种训练方法称为多任务学习,也叫联合学习(jointlearning)。

11)主动学习:activelearning,在监督学习中,机器学习模型通过对训练数据的拟合,来学习数据到预测结果之间的映射关系,主动学习通过设计数据采样方法来挑选对于模型而言信息量最大的样本数据来标注,相对于随机采样方法,标注后的数据重新加入样本训练后,模型的收益最大。

12)ood:outofdomain,对于任务型(task-oriented)的对话系统而言,通常会预先定义多个垂直领域(domain):查天气,导航,音乐等,来满足用户的任务需求。不落入任何一个任务型领域中的用户query即为ood语料,比如有闲聊、知识问答、语义理解错误等,与之相对的是indomain(ind)语料,即属于任意一个预先定义领域中的语料。

13)far:falseacceptancerate,被错误识别到任何一个领域中的ood语料占所有ood语料的比例。该指标反映了智能助手的误识率,该指标越低越好。在全双工场景下,对该指标有严格的限制,必须处于一个非常低的水平。

14)frr:falserejectionrate,在所有的ind语料中,未被任意一个领域召回的语料数量占所有ind语料数的比例。该指标越低越好,反映了智能助手的拒识率。

15)语音语义理解(speechtranslation):又称自动语音语义理解,是通过计算机将一种自然语言的语音语义理解为另一种自然语言的文本或语音的技术,一般可以由语义理解和机器语义理解两阶段组成。

图1为本发明实施例提供的语义理解模型训练方法的使用场景示意图,参考图1,终端(包括终端10-1和终端10-2)上设置有语义理解软件的客户端,用户通过所设置的语义理解软件客户端可以输入相应的待语义理解语句,聊天客户端也可以接收相应的语义理解结果,并将所接收的语义理解结果向用户进行展示;终端通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。

作为一个示例,服务器200用于布设所述语义理解模型并对所述语义理解模型进行训练,以对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新,以实现将通过语义理解模型中语义表示层网络和任务相关输出层网络生成针对目标待语义理解语句的语义理解结果,并通过终端(终端10-1和/或终端10-2)展示语义理解模型所生成的与待语义理解语句相对应的语义理解结果。

当然在通过语义理解模型对目标待语义理解语句进行处理以生成相应的语义理解结果之前,还需要对语义理解模型进行训练,具体包括:获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新。

下面对本发明实施例的语义理解模型的训练装置的结构做详细说明,语义理解模型的训练装置可以各种形式来实施,如带有语义理解模型训练功能的专用终端,也可以为设置有语义理解模型训练功能的服务器,例如前序图1中的服务器200。图2为本发明实施例提供的语义理解模型的训练装置的组成结构示意图,可以理解,图2仅仅示出了语义理解模型的训练装置的示例性结构而非全部结构,根据需要可以实施图2示出的部分结构或全部结构。

本发明实施例提供的语义理解模型的训练装置包括:至少一个处理器201、存储器202、用户接口203和至少一个网络接口204。语义理解模型的训练装置20中的各个组件通过总线系统205耦合在一起。可以理解,总线系统205用于实现这些组件之间的连接通信。总线系统205除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统205。

其中,用户接口203可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。

可以理解,存储器202可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。本发明实施例中的存储器202能够存储数据以支持终端(如10-1)的操作。这些数据的示例包括:用于在终端(如10-1)上操作的任何计算机程序,如操作系统和应用程序。其中,操作系统包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。

在一些实施例中,本发明实施例提供的语义理解模型的训练装置可以采用软硬件结合的方式实现,作为示例,本发明实施例提供的语义理解模型训练装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本发明实施例提供的语义理解模型训练方法。例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(asic,applicationspecificintegratedcircuit)、dsp、可编程逻辑器件(pld,programmablelogicdevice)、复杂可编程逻辑器件(cpld,complexprogrammablelogicdevice)、现场可编程门阵列(fpga,field-programmablegatearray)或其他电子元件。

作为本发明实施例提供的语义理解模型的训练装置采用软硬件结合实施的示例,本发明实施例所提供的语义理解模型的训练装置可以直接体现为由处理器201执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器202,处理器201读取存储器202中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器201以及连接到总线205的其他组件)完成本发明实施例提供的语义理解模型训练方法。

作为示例,处理器201可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(dsp,digitalsignalprocessor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。

作为本发明实施例提供的语义理解模型的训练装置采用硬件实施的示例,本发明实施例所提供的装置可以直接采用硬件译码处理器形式的处理器201来执行完成,例如,被一个或多个应用专用集成电路(asic,applicationspecificintegratedcircuit)、dsp、可编程逻辑器件(pld,programmablelogicdevice)、复杂可编程逻辑器件(cpld,complexprogrammablelogicdevice)、现场可编程门阵列(fpga,field-programmablegatearray)或其他电子元件执行实现本发明实施例提供的语义理解模型训练方法。

本发明实施例中的存储器202用于存储各种类型的数据以支持语义理解模型的训练装置20的操作。这些数据的示例包括:用于在语义理解模型的训练装置20上操作的任何可执行指令,如可执行指令,实现本发明实施例的从语义理解模型训练方法的程序可以包含在可执行指令中。

在另一些实施例中,本发明实施例提供的语义理解模型的训练装置可以采用软件方式实现,图2示出了存储在存储器202中的语义理解模型的训练装置,其可以是程序和插件等形式的软件,并包括一系列的模块,作为存储器202中存储的程序的示例,可以包括语义理解模型的训练装置,语义理解模型的训练装置中包括以下的软件模块:数据传输模块2081,去噪模块2082和语义理解模型训练模块2083。当语义理解模型的训练装置中的软件模块被处理器201读取到ram中并执行时,将实现本发明实施例提供的语义理解模型训练方法,下面介绍本发明实施例中语义理解模型的训练装置中各个软件模块的功能,其中,

数据传输模块2081,用于获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;

去噪模块2082,用于对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;

语义理解模型训练模块2083,用于通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;

所述语义理解模型训练模块2083,用于响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;

所述语义理解模型训练模块2083,用于根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新。

结合图2示出的语义理解模型的训练装置20说明本发明实施例提供的语义理解模型的训练方法,在介绍本发明实施例提供的语义理解模型的训练方法之前,首先介绍本申请中语义理解模型根据待语义理解语句生成相应语义理解结果的过程中,图3为传统方案中生成语义理解结果的示意图,其中,eq2seq模型是以编码器(encode)和解码器(decode)为代表的架构方式,seq2seq模型是根据输入序列x来生成输出序列y。编码器(encode)和解码器(decode)为代表的seq2seq模型中,编码器(encode)是将输入序列转化成一个固定长度的向量,解码器(decode)将输入的固定长度向量解码成输出序列。如图3所示,编码器(encoder)对输入的待语义理解语句进行编码,得到待语义理解语句的文本特征;解码器(decoder)对文本特征进行解码后输出生成相应的语义理解结果,其中,编码器(encode)和解码器(decode)是一一对应的。

可见,对于图3所示的相关技术来说基于seq2seq模型的语义理解模型的缺点在于,相关技术中的模型本身只对训练数据目标文本y-标注信息建立一对一的关系,并且使用mle进行模型的优化,这导致了模型会生成很多高频的通用回复,这些回复往往没有意义且很短。同时,很多实际场景中,同一个目标文本y可以有很多种标注信息,现有的seq2seq模型由于编码器(encode)和解码器(decode)是一一对应的,并不能够有效对这种一对多问题进行处理,同时很容易受到噪声信息的干扰,触发无用的识别,用户体验差。

为解决这一相关技术中的缺陷,参见图4,图4为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图,可以理解地,图4所示的步骤可以由运行语义理解模型训练装置的各种电子设备执行,例如可以是如带有样本生成功能的专用终端、带有语义理解模型训练功能的服务器或者服务器集群。下面针对图4示出的步骤进行说明。

步骤401:语义理解模型训练装置获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本。

在本发明的一些实施例中,第一训练样本集合可以为同一语种的语言样本,或者也可以为不同语种的语言样本,对此不作限制。其中,第一训练样本集合的语种可以根据实际翻译需求进行设置。例如,当翻译模型应用于中译英的应用场景时,第一训练样本集合的语种可以为中文,再例如,当翻译模型应用于英译法的应用场景时,第一训练样本集合的语种可以为英文,又例如,当翻译模型应用于中法互译的应用场景时,第一训练样本集合的语种可以包括中文和/或法文。

在本发明的一些实施例中,第一训练样本集合可以为语音形式,或者也可以为文本形式,可以预先采集文本形式的第一训练样本集合和/或语音形式的第一训练样本集合,例如,可以通常的语句收集方式,采集文本形式的第一训练样本集合和/或语音形式的第一训练样本集合,并将采集的文本形式的第一训练样本集合和/或语音形式的第一训练样本集合存储在预设存储装置中。从而,本申请中,在对翻译模型进行训练时,可以从上述存储装置中,获取第一训练样本集合。

步骤402:对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合。

在本发明的一些实施例中,所述对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合,可以通过以下方式实现:

确定与所述语义理解模型的使用环境相匹配的动态噪声阈值;根据所述动态噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述动态噪声阈值相匹配的第二训练样本集合。其中由于翻译模型的使用环境不同,与所述翻译模型的使用环境相匹配的动态噪声阈值也不相同,例如,学术翻译的使用环境中,与所述翻译模型的使用环境相匹配的动态噪声阈值需要小于文章阅读环境中的动态噪声阈值。

在本发明的一些实施例中,所述对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合,可以通过以下方式实现:

确定与所述语义理解模型相对应的固定噪声阈值;根据所述固定噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述固定噪声阈值相匹配的第二训练样本集合。其中,当翻译模型固化于相应的硬件机构中,例如车载终端,使用环境为口语化翻译时,由于噪声较为单一,通过固定翻译模型相对应的固定噪声阈值,能够有效提神翻译模型的训练速度,减少用户的等待时间。

步骤403:语义理解模型训练装置通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数。

步骤404:语义理解模型训练装置响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数。

在本发明的一些实施例中,所述响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数,可以通过以下方式实现:

将所述第二训练样本集合中不同语句样本,代入由所述语义理解模型的领域无关检测器网络和领域分类网络所组成的任务相关输出层网络所对应的损失函数;确定所述损失函数满足相应的收敛条件时对应所述语义理解模型中领域无关检测器网络参数和领域分类网络参数作为所述语义理解模型的更新参数。其中,语义理解模型的组成可以包括:语义表示层网络和任务相关输出层网络,进一步地,任务相关输出层网络包括了领域无关检测器网络和领域分类网络。

在本发明的一些实施例中,语义表示层网络可以为双向注意力神经网络模型(bertbidirectionalencoderrepresentationsfromtransformers)。继续参考图5,图5为本发明实施例中语义表示层网络模型一个可选的结构示意图,其中,encoder包括:n=6个相同的layers组成,每一层包含两个sub-layers。第一个sub-layer就是多头注意力层(multi-headattentionlayer)然后是一个简单的全连接层。其中每个sub-layer都加了残差连接(residualconnection)和归一化(normalisation)。

decoder包括:由n=6个相同的layer组成,其中layer和encoder并不相同,这里的layer包含了三个sub-layers,其中有一个self-attentionlayer,encoder-decoderattentionlayer最后是一个全连接层。前两个sub-layer都是基于multi-headattentionlayer。

继续参考图6,图6为本发明实施例中语义表示层网络模型一个可选的词语级机器阅读示意图,其中,其中,encoder和decoder部分都包含了6个encoder和decoder。进入到第一个encoder的inputs结合embedding和positionalembedding。通过了6个encoder之后,输出到了decoder部分的每一个decoder中;输入目标为“我是一个学生t”经过语义表示层网络模型的处理,输出的机器阅读示结果为:“学生”。

继续参考图7,图7为本发明实施例中语义表示层网络模型中编码器一个可选的结构示意图,其中,其输入由维度为d的查询(q)和键(k)以及维度为d的值(v)组成,所有键计算查询的点积,并应用softmax函数获得值的权重。

继续参考图7,图7本发明实施例中语义表示层网络模型中编码器的向量示意图,其中q,k和v的是通过输入encoder的向量x与w^q,w^k,w^v相乘得到q,k和v。w^q,w^k,w^v在文章的维度是(512,64),然后假设我们inputs的维度是(m,512),其中m代表了字的个数。所以输入向量与w^q,w^k,w^v相乘之后得到的q、k和v的维度就是(m,64)。

继续参考图8,图8为本发明实施例中语义表示层网络模型中编码器的向量拼接示意图,其中,z0到z7就是对应的8个并行的head(维度是(m,64)),然后concat这个8个head之后就得到了(m,512)维度。最后与w^o相乘之后就到了维度为(m,512)的输出的矩阵,那么这个矩阵的维度就和进入下一个encoder的维度保持一致。

继续参考图9,图9为本发明实施例中语义表示层网络模型中编码器的编码过程示意图,其中,x1经过self-attention到了z1的状态,通过了self-attetion的张量还需要进过残差网络和laternorm的处理,然后进入到全连接的前馈网络中,前馈网络需要进行同样的操作,进行的残差处理和正规化。最后输出的张量才可以的进入到了下一个encoder之中,然后这样的操作,迭代经过了6次,迭代处理的结果进入到decoder中。

继续参考图10,图10为本发明实施例中语义表示层网络模型中解码器的解码过程示意图,其中,decoder的输入输出和解码过程:

输出:对应i位置的输出词的概率分布;

输入:encoder的输出&对应i-1位置decoder的输出。所以中间的attention不是self-attention,它的k,v来自encoder,q来自上一位置decoder的输出。

继续参考图11和图12,图11为本发明实施例中语义表示层网络模型中解码器的解码过程示意图,其中。解码器网络的最后一个decoder输出的向量会经过linear层和softmax层。图12为本发明实施例中语义表示层网络模型中解码器的解码过程示意图,linear层的作用就是对decoder部分出来的向量做映射成一个logits向量,然后softmax层根据这个logits向量,将其转换为了概率值,最后找到概率最大值的位置,即完成了解码器的输出。

在本发明的一些实施例中,第一阅读语义标注网络可以为双向注意力神经网络模(bertbidirectionalencoderrepresentationsfromtransformers)。继续参考图5,图5为本发明实施例中语义表示层网络模型一个可选的结构示意图,其中,encoder包括:n=6个相同的layers组成,每一层包含两个sub-layers。第一个sub-layer就是多头注意力层(multi-headattentionlayer)然后是一个简单的全连接层。其中每个sub-layer都加了残差连接(residualconnection)和归一化(normalisation)。

decoder包括:由n=6个相同的layer组成,其中layer和encoder并不相同,这里的layer包含了三个sub-layers,其中有一个self-attentionlayer,encoder-decoderattentionlayer最后是一个全连接层。前两个sub-layer都是基于multi-headattentionlayer。

继续参考图13,图13为本发明实施例中语义表示层网络模型一个可选的语句级机器阅读示意图,其中,其中,encoder和decoder部分都包含了6个encoder和decoder。进入到第一个encoder的inputs结合embedding和positionalembedding。通过了6个encoder之后,输出到了decoder部分的每一个decoder中;输入目标为英语“iamastudent”经过语义表示层网络模型的处理,输出的机器阅读示结果为:“我是一个学生”。

当然,本发明中的bert模型也使用前向神经网络模型(bi-lstmbi-directionallongshort-termmemory)、门控循环单元网络模型(grugatedrecurrentunit)模型、深度语境化词表征网络模型(elmoembeddingfromlanguagemodel)、gpt模型、gpt2模型代替,对此,本发明不再赘述。

步骤405:语义理解模型训练装置根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新。

继续参考图14,图14为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图,可以理解地,图14所示的步骤可以由运行语义理解模型训练装置的各种电子设备执行,例如可以是如带有语义理解模型训练功能的专用终端、带有语义理解模型训练功能的服务器或者服务器集群。下面针对图14示出的步骤进行说明。

步骤1401:语义理解模型训练装置通过所述语义理解模型的更新参数,确定与所述第二训练样本集合相匹配的第二噪声参数。

其中,所述第二噪声参数用于表征所述第二训练样本集合中平行语句样本的噪声值;其中,第二训练样本集合中的每一个训练样本的权重都是相同的,这些权重相同训练样本可以称为平行语句样本。

步骤1402:语义理解模型训练装置当所述第二噪声参数到达相应的噪声值阈值时,根据所述第二噪声参数的噪声值,对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新,直至所述语义理解模型的领域无关检测器网络和所述领域分类网络构成的任务相关输出层网络对应的损失函数满足对应的收敛条件。

步骤1403:语义理解模型训练装置响应于所述语义理解模型的领域无关检测器网络和领域分类网络所组成的任务相关输出层网络所对应的损失函数。

步骤1404:语义理解模型训练装置对所述语义理解模型的语义表示层网络进行参数调整。

由此,以实现所述语义表示层网络的参数与所述任务相关输出层网络所对应的损失函数相适配。

其中,其中,编码器网络的损失函数表示为:

loss_a=∑(decoder_a(encoder(warp(x1)))-x1)2;其中,decoder_a为解码器a,warp为待识别语句的函数,x1为待识别语句,encoder为编码器。

在迭代训练的过程中,通过将待识别语句代入编码器网络的损失函数,求解损失函数按照梯度(例如最大梯度)下降时编码器a和解码器a的参数,当损失函数收敛时(即确定能够形成与所述待识别语句所对应的词语级的隐变量时),结束训练。

对编码器网络的训练过程中,编码器网络的损失函数表示为:loss_b=∑(decoder_b(encoder(warp(x2)))-x2)2;其中,decoder_b为解码器b,warp为待识别语句的函数,x2为待识别语句,encoder为编码器。

在迭代训练的过程中,通过将待识别语句代入编码器网络的损失函数,求解损失函数按照梯度(例如最大梯度)下降时编码器b和解码器b的参数;当损失函数收敛时(即当解码得到与所述待识别语句相对应的翻译结果的被选取概率时),结束调整和训练。

继续参考图15,图15为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图,可以理解地,图15所示的步骤可以由运行语义理解模型训练装置的各种电子设备执行,例如可以是如带有语义理解模型训练功能的专用终端、带有语义理解模型训练功能的服务器或者服务器集群。下面针对图15示出的步骤进行说明。

步骤1501:语义理解模型训练装置对所述第二训练样本集合进行负例处理,以形成与所述第二训练样本集合相对应的负例样本集合。

其中,所述负例样本集合用于调整所述语义理解模型的领域无关检测器网络参数和领域分类网络参数调整。

在本发明的一些实施例中,所述对所述第一训练样本集合进行负例处理,可以通过以下方式实现:

将所述语义理解模型的领域分类网络中待输出语句进行随机组合,以形成与所述第一训练样本集合相对应的负例样本集合;或者,

对所述语义理解模型的领域分类网络中待输出语句进行随机删除处理或替换处理以形成与所述第一训练样本集合相对应的负例样本集合。

步骤1502:语义理解模型训练装置根据所述负例样本集合确定相应的双语评估研究值。其中,当语义理解模型所应用的全双工语音交互的使用场景为非中文(可以是单一的英语或其他语种的使用环境,也可以是至少包括两种语言声源的使用环境)使用环境时,根据所述负例样本集合所确定相应的双语评估研究值可以用于作为监督参数对所述语义理解模型的语义理解结果进行评价。

在本发明的一些实施例中,语义表示层网络对应的编码器和对应的解码器可以为双向网络模型,例如可以均选用bi-gru双向gru模型作为对应的编码器和对应的解码器,此处的bi-gru双向gru模型是一种可以识别倒装句结构的模型。由于用户在输入对话语句时,可能使得该对话语句为倒装句结构,即与正常的语句结构不一样,例如用户输入的对话语句为“天气怎么样今天”,而正常的语句结构为“今天天气怎么样”,采用bi-gru双向gru模型可以识别出倒装句结构的对话语句,从而可以丰富训练后的模型的功能,进而可以提高最终训练得到的目标模型的鲁棒性。

继续参考图16a,图16a为本发明实施例提供的语义理解模型训练方法一个可选的流程示意图,可以理解地,图15所示的步骤可以由运行语义理解模型训练装置的各种电子设备执行,例如可以是如带有语义理解模型训练功能的专用终端、带有语义理解模型训练功能的服务器或者服务器集群。下面针对图16a示出的步骤进行说明。

步骤1601:语义理解模型训练装置对数据源中的训练样本进行召回处理。

其中,数据源中包括各类型应用场景的数据作为相应的训练本的数据来源,例如,本发明所提供的语义理解模型可以作为软件模块封装于车载电子设备中,也可以封装于不同的智能家居(包括但不限于:音箱、电视、冰箱、空调、洗衣机、灶具),当然也可以固化于智能机器人的硬件设备中,针对这些语义理解模型的不同使用场景,可以使用相对应的训练样本对语义理解模型进行针对性性的训练。

步骤1602:语义理解模型训练装置根据所述召回处理的结果,触发相应的主动学习进程,以实现获取所述数据源中带有噪声的语句样本。

步骤1603:语义理解模型训练装置对所述主动学习进程中所获取的带有噪声的语句样本进行标注,以形成所述第一训练样本集合。

在本发明的一些实施例中,所述对所述主动学习进程中所获取的带有噪声的语句样本进行标注,以形成所述第一训练样本集合,可以通过以下方式实现:

确定所述带有噪声的语句样本的样本类型;对所述语句样本的样本类型中的负例样本进行排序,根据对所述负例样本的排序结果,为所述负例样本配置相应的权重,以形成包括不同权重训练样本的第一训练样本集合。

在本发明的一些实施例中,语义理解模型训练装置可以响应于所述主动学习进程,触发主动探索进程,以实现对所述与车载环境相匹配的带有噪声的语句样本进行边界语料扩充处理。

其中,语义理解模型训练装置可以响应于所述主动学习进程,触发主动探索进程中的文本相似聚类网络,以确定所述与车载环境相匹配的带有噪声的语句样本的文本聚类中心;根据所述与车载环境相匹配的带有噪声的语句样本的文本聚类中心,对所述数据源进行检索,以实现对所述与车载环境相匹配的带有噪声的语句样本进行文本增广;根据对所述与车载环境相匹配的带有噪声的语句样本进行文本增广的结果,触发相应的流形学习进程对所述文本增广的结果进行降维处理,以实现对所述与车载环境相匹配的带有噪声的语句样本进行边界语料扩充。其中,参考图16b,图16b为本发明实施例提供的语义理解模型训练方法一个可选的边界语料扩充示意图,通过主动探索进程中的文本相似聚类网络,确定与车载环境相匹配的带有噪声的语句样本的文本聚类中心,并以此对所述数据源进行检索,获取与车载环境相匹配的带有噪声的语句样本相关联的语句样本,可以有效增加与车载环境相匹配的带有噪声的语句样本的数量,但是由于训练样本语句的增广过程中,训练样本的维度增高,因此,通过流形学习进程对文本增广的结果进行降维处理,可以减少后续模型训练过程数据维度对于语义理解模型训练准确性的影响,同时降低训练难度,减少用户的等待时间。

下面对本发明实施例的语义理解模型处理装置的结构做详细说明,语义理解模型处理装置可以各种形式来实施,如带有根据能够运行语义理解模型的专用终端,也可以为带有回答的功能的服务器,以根据终端中的应用程序所接收的待翻译语句生成相应的翻译结果(例如前序图1中的服务器200)。图17为本发明实施例提供的语义理解模型处理装置的组成结构示意图,可以理解,图17仅仅示出了语义理解模型处理装置的示例性结构而非全部结构,根据需要可以实施图17示出的部分结构或全部结构。

本发明实施例提供的语义理解模型处理装置包括:至少一个处理器1301、存储器1302、用户接口1303和至少一个网络接口1304。语义理解模型处理装置130中的各个组件通过总线系统1305耦合在一起。可以理解,总线系统1305用于实现这些组件之间的连接通信。总线系统1305除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图17中将各种总线都标为总线系统1305。

其中,用户接口1303可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。

可以理解,存储器1302可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。本发明实施例中的存储器1302能够存储数据以支持终端(如10-1)的操作。这些数据的示例包括:用于在终端(如10-1)上操作的任何计算机程序,如操作系统和应用程序。其中,操作系统包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。

在一些实施例中,本发明实施例提供的语义理解模型处理装置可以采用软硬件结合的方式实现,作为示例,本发明实施例提供的语义理解模型处理装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本发明实施例提供的语义理解模型的语义处理方法。例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(asic,applicationspecificintegratedcircuit)、dsp、可编程逻辑器件(pld,programmablelogicdevice)、复杂可编程逻辑器件(cpld,complexprogrammablelogicdevice)、现场可编程门阵列(fpga,field-programmablegatearray)或其他电子元件。

作为本发明实施例提供的语义理解模型处理装置采用软硬件结合实施的示例,本发明实施例所提供的语义理解模型处理装置可以直接体现为由处理器1301执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器1302,处理器1301读取存储器1302中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器1301以及连接到总线1305的其他组件)完成本发明实施例提供的语义理解模型的语义处理方法。

作为示例,处理器1301可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(dsp,digitalsignalprocessor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。

作为本发明实施例提供的语义理解模型处理装置采用硬件实施的示例,本发明实施例所提供的装置可以直接采用硬件译码处理器形式的处理器1301来执行完成,例如,被一个或多个应用专用集成电路(asic,applicationspecificintegratedcircuit)、dsp、可编程逻辑器件(pld,programmablelogicdevice)、复杂可编程逻辑器件(cpld,complexprogrammablelogicdevice)、现场可编程门阵列(fpga,field-programmablegatearray)或其他电子元件执行实现本发明实施例提供的语义理解模型的语义处理方法。

本发明实施例中的存储器1302用于存储各种类型的数据以支持语义理解模型处理装置130的操作。这些数据的示例包括:用于在语义理解模型处理装置130上操作的任何可执行指令,如可执行指令,实现本发明实施例的从语义理解模型的语义处理方法的程序可以包含在可执行指令中。

在另一些实施例中,本发明实施例提供的语义理解模型处理装置可以采用软件方式实现,图17示出了存储在存储器1302中的语义理解模型处理装置,其可以是程序和插件等形式的软件,并包括一系列的模块,作为存储器1302中存储的程序的示例,可以包括语义理解模型处理装置,语义理解模型处理装置中包括以下的软件模块:文本转换模块13081,语义表示层网络模块13082,领域无关检测器网络模块13083、领域分类网络模块13084和信息处理模块13085。当语义理解模型处理装置中的软件模块被处理器1301读取到ram中并执行时,将实现本发明实施例提供的语义理解模型的语义处理方法,语义理解模型处理装置中各个软件模块的功能包括:

文本转换模块13081,用于获取语音指令信息,并将所述语音指令转换为相应的可识别文本信息;

语义表示层网络模块13082,用于通过所述语义理解模型的语义表示层网络,确定与可识别文本信息所对应的至少一个词语级的隐变量;

领域无关检测器网络模块13083,用于通过所述语义理解模型的领域无关检测器网络,根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相匹配的对象;

领域分类网络模块13084,用于通过所述语义理解模型的领域分类网络;根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相对应的任务领域;

信息处理模块13085,用于根据与所述词语级的隐变量相匹配的对象,和与所述词语级的隐变量相对应的任务领域,触发相应的业务进程,以实现完成与所述语音指令信息相对应的任务。

结合图17示出的语义理解模型处理装置130说明本发明实施例提供的语义理解模型的语义处理方法,参见图18,图18为本发明实施例提供的语义理解模型的语义处理方法一个可选的流程示意图,可以理解地,图18所示的步骤可以由运行语义理解模型处理装置的各种电子设备执行,例如可以是如带有待翻译语句处理功能的专用终端、带有待翻译语句处理功能的服务器或者服务器集群。下面针对图18示出的步骤进行说明。

步骤1801:语义理解模型处理装置获取语音指令信息,并将所述语音指令转换为相应的可识别文本信息;

步骤1802:语义理解模型处理装置通过所述语义理解模型的语义表示层网络,确定与可识别文本信息所对应的至少一个词语级的隐变量;

步骤1803:语义理解模型处理装置通过所述语义理解模型的领域无关检测器网络,根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相匹配的对象;

步骤1804:语义理解模型处理装置通过所述语义理解模型的领域分类网络;根据所述至少一个词语级的隐变量,确定与所述词语级的隐变量相对应的任务领域;

步骤1805:语义理解模型处理装置根据与所述词语级的隐变量相匹配的对象,和与所述词语级的隐变量相对应的任务领域,触发相应的业务进程。

由此,以实现完成与所述语音指令信息相对应的任务。

下面以车载语义理解模型为例,对本申请所提供的语义理解模型训练方法的使用环境进行说明,参考图19和图20,图19为本发明实施例提供的语义理解模型训练方法的使用场景示意图,本发明所提供的语义理解模型训练方法可以作为云服务的形式服务可类型的客户(封装于车载终端或者封装于不同的移动电子设备中),图20为本发明实施例提供的语义理解模型训练方法的使用场景示意图,具体使用场景本申请不做具体限制,其中,作为云服务提供给企业客户,帮助其根据不同的设备使用环境对语义理解模型进行训练。

继续参考图21,图21为本发明所提供的语义理解模型训练方法的一个可选的处理流程示意图,包括以下步骤:

步骤2101:获取语音信息,并将所述语音信息转换为对应的文本信息。

其中,参考图19的自然语言理解模块,用户的语音信号通过语义理解模块转换成文本信号,文本通过自然语言理解模块抽取出用户的领域、意图和参数等结构化信息,这些语义要素传递给对话管理模块进行询参处理,或者状态管理等策略,最后系统的输出通过语音合成播报给用户。

步骤2102:响应于所述文本信息,触发主动学习进程以获取相应的训练样本。

其中,参考图22,图22为本发明实施例提供的语义理解模型训练方法的处理过程中主动学习进程示意图,由于负语料模型(ood模型)和领域分类器模型都需要挖掘大量的负样本,但是人工标注成本是有限的。因此需要在有限的标注人力情况下从海量的数据中挖掘到最有价值的、信息量最大的、对模型增益最大的样本。为此,可以基于activelearning的思想,构建如图22所示的数据挖掘进程,由此,基于activelearning的整套数据闭环挖掘流程,从数据产生、挑选到标注,再到模型训练。保障了所产生的样本对于语义理解模型来说是最亟需的、帮助最大的样本,并且通过筛选样本有效降低了标注人力成本。

步骤2103:对所获取的训练样本进行优化处理。

其中,通过步骤2102挖掘和积累了大量的ood语料、领域负样本语料以及领域的正样本语料。在训练语义理解模型的时候,采用了onev.sall的方式进行正负样本组织,这种方式决定了一个领域分类器的正负样本比例是不均衡的,在一些可选的场景下正负样本比例达到了1:100,在一些极端的情况下达到了1:2000。在所述语义理解模型的实际使用中,即便某些领域的负样本充足,训练出来的模型far指标依然比较高,因此可以通过分析badcases和实验提出了一种负样本分布调优的策略,具体包括:对负样本按重要程度进行分组(公共负样本、领域负样本、其他相关领域正样本、其他不相关领域正样本),每组样本赋予不同的权重,对领域负样本和其他领域相关的正样本赋予较高的权重,其他负样本赋予较低的权重。

由此,通过对负样本进行分组权重的精细化调优,能够有效地降低模型的误识率。

步骤2104:通过经过优化处理的训练样本对语义理解模型进行训练,以确定所述语义理解模型的参数。

由此,可以通过训练完成的语义理解模型对噪声环境较大的环境中的语音指令进行识别与处理。

其中,参考图23,图23为本发明实施例提供的语义理解模型一个可选的模型结构示意图,在模型网络侧可以使用多任务学习(multi-tasklearning)的训练方式来联合对ood模型和领域分类模型进行训练。具体的网络结构图23所示,整个网络结构分为两层:

1)基于bert的预训练模型作为语义表示层。

2)与下游任务相关的输出层,二者可以使用一个全连接网络来表示。

本发明所提供的语义理解模型的训练方法,可以将ood检测器模型和领域分类模型进行联合训练,ood模型是一个二分类任务,用来判断该语料是ind还是outofdomain。领域分类器模型是多个二分类器构成的,可以采用了onev.sall的数据组织方式,领域分类器用来判断该语料是ind中的哪个领域(天气、导航、音乐等)。进一步地,由于ood和领域分类器是非常相关的两类任务,如果该语料是ood那么一定是所有领域二分类器的负样本,如果该语料是ind,那么一定是领域分类器中的一个或者多个领域的正样本。利用任务之间的相关性,可以构建了一个联合损失函数:

l(·)=l_d(·)+al_o(·)

其中l_d(·)为领域分类器产生的loss,l_o(·)为ood检测器产生的loss,α是一个超参数,控制了ood对整个模型loss的影响程度,a可以在实际训练的时候设置为1,输出层的loss可以采用了交叉熵:

l_d(·)=-p’logp

p为样本的soft-max预测概率,p^'为样本的ground-truth标签。语义表示层bert的参数在训练过程中进行finetuning,ood和各个领域分类器的输出层参数独立优化。

由此,全双工对话场景下,用户的对话对象会发生转移,用户会时不时地和周围朋友的交谈、闲聊,以及自言自语等。通过本发明所提供的语义理解模型训练方法可以实现在将对话的误识率有效地降低,保障在对话的时候助手不会错误响应。进一步地,通过activelearning挖掘了大量的负样本进行模型训练,在迭代了数次周期之后,语义理解模型从初始较高的误识率下降到一个合理的范围。同时,通过对负样本分组、对不同组赋予不同的权重来调整内部的样本分布,误识率进一步下降。说明语义理解模型通过负样本的分布调整,能够从权重较大的负样本中学习到重要的信息,而权重较低的负样本信息量已经趋于饱和。最后,在模型结构侧,通过引入ood拒识模型进行联合学习,可以最终在内部的开发集和测试集上误识率均有不同程度的下降。由此,本发明通过优化智能助手在全双工场景下的误识率,能够保证智能助手有效地响应用户正确的对话诉求,对非对话诉求进行拒识,保障了交互的可行性和流畅性,有效提升用户的使用体验。其中,图24为封装于车载系统中使用语义理解模型唤醒应用的示意图;图25为封装于车载系统中使用语义理解模型查阅天气的示意图。当然,在本发明的一些实施例中,还可以在taskspecificlayers之上再接一个后处理的rank模型,模的输入是ood和各个领域分类器的预测得分,输出整个模型的预测结果。而本发明中,只是将ood预测结果和领域分类器预测结果进行了一个层次的逻辑处理,即ood模型预测为outofdomain时,直接返回结果不再进行领域分类器的预测。但是ood模型有可能预测错误,领域分类器模型预测的置信度很高,最终的结果却是ind,替代方案通过学习这种组合关系,可以在综合比较的基础上给出一个合理的预测结果,以降低语义理解模型的语义理解结果的错误率。

本发明具有以下有益技术效果:

通过获取第一训练样本集合,其中所述第一训练样本集合为通过主动学习进程所获取的带有噪声的语句样本;对所述第一训练样本集合进行去噪处理,以形成相应的第二训练样本集合;通过语义理解模型对所述第二训练样本集合进行处理,以确定所述语义理解模型的初始参数;响应于所述语义理解模型的初始参数,通过所述语义理解模型对所述第二训练样本集合进行处理,确定所述语义理解模型的更新参数;根据所述语义理解模型的更新参数,通过所述第二训练样本集合对所述语义理解模型的语义表示层网络参数和任务相关输出层网络参数进行迭代更新,由此,使得语义理解模型的泛化能力更强,提升语义理解模型的训练精度与训练速度,同时还可以有效充分利用已有的噪声语句对模型训练的增益,使得语义理解模型能够适应不同的使用场景,避免环境噪声对语义理解模型的影响。

以上所述,仅为本发明的实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1