神经网络模型之在线增量更新方法、装置、系统及存储介质与流程

文档序号:25542902发布日期:2021-06-18 20:39阅读:582来源:国知局
神经网络模型之在线增量更新方法、装置、系统及存储介质与流程

本发明涉及深度学习技术领域,具体涉及神经网络模型之在线增量更新方法、装置、系统及存储介质。



背景技术:

常规的神经网络,在线运行的过程中,必将产生一些由于模型训练的缺陷导致判断错误的数据,称之为增量数据。如图1所示,针对在神经网络运行期间产生的增量数据,当前只能通过定期重启整套模型的训练,并把这部分数据与原有训练集进行合并,才能更新整个网络,极度耗费时间和资源。目前的神经网络并不支持在线增量更新(在不中断当前模型判断任务的前提下)。

如果只让神经网络在线更新并训练增量数据,由于增量数据的样本不均衡(只有模型缺陷的部分),必将导致模型对增量数据过拟合,从而令模型失去其原有功能,变成一个指哪打哪的机器而非人工智能,永远有训练不尽的增量数据。过拟合over-fitting:机器学习模型的训练误差远小于其在测试数据集上的误差,即泛化能力差。

鉴于此,本发明人针对上述存在的问题进行深入构思,遂产生本案。



技术实现要素:

本发明的目的在于提供一种神经网络模型之在线增量更新方法、装置、系统及存储介质,以实现神经网络模型在保留其原有功能的前提下,不用重启全套训练,就能完成对增量数据的训练和更新。

为实现上述目的,本发明采用的技术方案为:

神经网络模型之在线增量更新方法,其包括以下步骤:

步骤1、神经网络模型产生误判数据,形成增量数据;

步骤2、从神经网络模型的原始训练数据集中进行有放回的随机采样,将得到的训练数据与增量数据构建为一个样本均衡的批次,将其作为神经网络模型的更新训练数据集;

步骤3、采用更新训练数据集对神经网络模型进行在线训练,训练结束后,若神经网络模型对增量数据未能掌握,无法做出正确的判断,重复步骤2,直至神经网络模型能够对增量数据做出正确的判断。

所述神经网络模型的原始训练数据集包括n个类型的样本训练数据集{a1,a2,…,an},所述更新训练数据集包括n个类型的样本训练数据集{b1,b2,…,bn},其中,n≥2;样本训练数据集{b1,b2,…,bn}与样本训练数据集{a1,a2,…,an}的类型相同,且一一对应;

当所述增量数据类型与样本训练数据集ai的类型相同时,该增量数据与m-1个从样本训练数据集ai中随机采样得到的样本数据共同形成样本数据集bi,即样本数据集bi包括1个增量数据和m-1个从样本训练数据集ai中随机采样得到的样本数据;其他样本训练数据集bj则包括m个从样本训练集aj中随机采样得到的样本数据,其中,i和j为1-n中的一个值,且i≠j。

神经网络模型之在线增量更新装置,其包括

更新训练数据集构建模块,用于在形成增量数据时,从神经网络模型的原始训练数据集中进行有放回的随机采样,并将采样得到的训练数据与增量数据结合形成更新训练数据集;

在线增量更新模块,连接更新训练数据集构建模块,用于获取更新训练数据集并采用该更新训练数据集对神经网络模型进行在线训练。

所述神经网络模型的原始训练数据集包括n个类型的样本训练数据集{a1,a2,…,an},所述更新训练数据集包括n个类型的样本训练数据集{b1,b2,…,bn},其中,n≥2;样本训练数据集{b1,b2,…,bn}与样本训练数据集{a1,a2,…,an}的类型相同,且一一对应;

当所述增量数据类型与样本训练数据集ai的类型相同时,该增量数据与m-1个从样本训练数据集ai中随机采样得到的样本数据共同形成样本数据集bi,即样本数据集bi包括1个增量数据和m-1个从样本训练数据集ai中随机采样得到的样本数据;其他样本训练数据集bj则包括m个从样本训练集aj中随机采样得到的样本数据,其中,i和j为1-n中的一个值,且i≠j。

神经网络模型之在线增量更新系统,所述系统包括处理器和存储器;

所述存储器用于存储一个或多个软件程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行如上所述的方法。

一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行如上所述的方法。

一种计算机软件程序产品,所述计算机软件程序产品在终端设备上运行时,使得所述终端设备执行如上所述的方法。

一种违规言论判断模型的在线增量更新方法,其包括以下步骤:

步骤1、违规言论判断模型产生误判数据,形成增量数据;所述误判是指正常言论判断为违规言论、或者违规言论判断为正常言论;

步骤2、从违规言论判断模型的原始训练数据集中进行有放回的随机采样,将得到的训练数据与增量数据构建为一个样本均衡的批次,将其作为违规言论判断模型的更新训练数据集;所述原始训练数据集和更新训练数据集均包括正常言论数据集和违规言论数据集;

当增量数据为正常言论时,从原始训练数据集的正常言论数据集中随机采样m-1个正常言论,与增量数据共同构成更新训练数据集的正常言论数据集;从原始训练数据集的违规言论数据集中速记采样m个违规言论作为更新训练数据集的违规言论数据集;

当增量数据为违规言论时,从原始训练数据集的违规言论数据集中随机采样m-1个违规言论,与增量数据共同构成更新训练数据集的正常言论数据集;从原始训练数据集的正常言论数据集中速记采样m个正常言论作为更新训练数据集的正常言论数据集;

步骤3、采用更新训练数据集对违规言论判断模型进行在线训练,训练结束后,若违规言论判断模型对增量数据未能掌握,无法做出正确的判断,重复步骤2,直至违规言论判断模型能够对增量数据做出正确的判断。

采用上述方案后,本发明实现了神经网络模型的在线增量更新,无需对神经网络模型重启训练,在保留其在线判断功能的前提下完成了对增量数据的训练和更新。同时,由于构建增量训练数据的采样方式独特性,在每个训练批次都重新构建了放回式随机采样(并非一次性采样),从而令各个类别的样本在每个批次都是均衡的,进而令全训练流程的样本都处于均衡状态。既能从过往记忆中进行数据回放,保障模型的现有功能;同时,又能在避免过拟合的前提下,对增量数据进行训练。

附图说明

图1为现有神经网络模型的判断示意图;

图2为本发明的神经网络模型的判断示意图;

图3为本发明一实施例判断示意图。

具体实施方式

如图2所示,本发明揭示了一种神经网络模型之在线增量更新方法,其包括以下步骤:

步骤1、神经网络模型产生误判数据,形成一个增量数据;

步骤2、从神经网络模型的原始训练数据集中进行有放回的随机采样,将得到的训练数据与增量数据构建为一个样本均衡的批次,将其作为神经网络模型的更新训练数据集;

步骤3、采用更新训练数据集对神经网络模型进行在线训练,训练结束后,若神经网络模型对增量数据未能掌握,无法做出正确的判断,重复步骤2,直至神经网络模型能够对增量数据做出正确的判断。

所述神经网络模型的原始训练数据集包括n个类型的样本训练数据集{a1,a2,…,an},所述更新训练数据集包括n个类型的样本训练数据集{b1,b2,…,bn},其中,n≥2;样本训练数据集{b1,b2,…,bn}与样本训练数据集{a1,a2,…,an}的类型相同,且一一对应。

上述步骤2在构建更新训练数据集时,若所述增量数据类型与样本训练数据集ai的类型相同,该增量数据与m-1个从样本训练数据集ai中随机采样得到的样本数据共同形成样本数据集bi,即样本数据集bi包括1个增量数据和m-1个从样本训练数据集ai中随机采样得到的样本数据;其他样本训练数据集bj则包括m个从样本训练集aj中随机采样得到的样本数据,其中,i和j为1-n中的一个值,且i≠j。

本发明实现了神经网络模型对增量数据的在线更新,其针对每一个增量数据,通过对原始训练数据集进行采样,合并构建为一个样本均衡的批次,对神经网络模型进行训练和更新。本发明既能对增量数据进行学习,又实现了类似记忆库回放的功能,从过往训练数据中随机采样数据参与更新过程中的训练,就能够保留住神经网络模型原本的功能,并对神经网络模型存在的缺陷进行自我更新和完善。

例如,如图3所示,一个针对违规言论进行判断的神经网络模型,有两个分类,一类为正常言论,一类为违规言论,当前对一个言论产生了误判(既正常言论判断为了违规言论,或者违规言论判断为了正常言论)。针对这个误判言论的增量数据,首先构建一个批次,大小为32,那么m就为16;当前增量数据已占1/32。接着,从原始训练数据集中进行抽样,从另一分类言论中抽出16个样本数据,再从与增量数据同分类的言论中抽出15个样本数据与增量数据进行合并,构建成一个(正常言论:违规言论)等于1:1的均衡样本批次(16个正常言论,16个违规言论,其中里面含有当前的1个增量数据),通过这个32个样本的批次对神经网络模型执行更新,之后测试神经网络模型是否能正确判断误判的言论,若不能则重新采样下一个批次并再次进行更新训练,若能,则完成了该神经网络模型的增量数据的更新。

基于同一发明构思,本发明还揭示了一种神经网络模型之在线增量更新装置,其包括更新训练数据集构建模块和在线增量更新模块。

其中,更新训练数据集构建模块用于在形成增量数据时,从神经网络模型的原始训练数据集中进行有放回的随机采样,并将采样得到的训练数据与增量数据结合形成更新训练数据集。在线增量更新模块,连接更新训练数据集构建模块,用于获取更新训练数据集并采用该更新训练数据集对神经网络模型进行在线训练。

本实施例中,所述神经网络模型的原始训练数据集包括n个类型的样本训练数据集{a1,a2,…,an},所述更新训练数据集包括n个类型的样本训练数据集{b1,b2,…,bn},其中,n≥2;样本训练数据集{b1,b2,…,bn}与样本训练数据集{a1,a2,…,an}的类型相同,且一一对应;

更新训练数据集构建模块在构建更新训练数据集时,若所述增量数据类型与样本训练数据集ai的类型相同,该增量数据与m-1个从样本训练数据集ai中随机采样得到的样本数据共同形成样本数据集bi,即样本数据集bi包括1个增量数据和m-1个从样本训练数据集ai中随机采样得到的样本数据;其他样本训练数据集bj则包括m个从样本训练集aj中随机采样得到的样本数据,其中,i和j为1-n中的一个值,且i≠j。

本发明还揭示了一种神经网络模型之在线增量更新系统,该系统包括处理器和存储器;存储器用于存储一个或多个软件程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行如上所述的方法。

本发明还揭示了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行如上所述的方法。

本发明揭示了一种计算机软件程序产品,所述计算机软件程序产品在终端设备上运行时,使得所述终端设备执行如上所述的方法。

综上,本发明的关键在于实现了神经网络模型的在线增量更新,无需对神经网络模型重启训练,在保留其在线判断功能的前提下完成了对增量数据的训练和更新。同时,由于构建增量训练数据的采样方式独特性,在每个训练批次都重新构建了放回式随机采样(并非一次性采样),从而令各个类别的样本在每个批次都是均衡的,进而令全训练流程的样本都处于均衡状态。既能从过往记忆中进行数据回放,保障模型的现有功能;同时,又能在避免过拟合的前提下,对增量数据进行训练。

以上所述,仅是本发明实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1