更新网络模型的方法、图像分类的方法、语言建模的方法与流程

文档序号:30057005发布日期:2022-05-17 19:00阅读:186来源:国知局
更新网络模型的方法、图像分类的方法、语言建模的方法与流程

1.本技术涉及计算机技术领域,具体而言,涉及一种更新网络模型的方法、图像分类的方法、语言建模的方法。


背景技术:

2.相关技术中,由于深度学习的进步和数据集的爆炸性增长,大数据模型及大数据集在计算机视觉、自然语言处理等场景的任务中的性能显著提升,传统的单机训练已经远远满足不了当前的数据量要求,使用并行sgd算法的大规模分布式训练(多机并行)被工业界以及学术界广泛应用,基于all-reduce的参数同步虽然解决了参数服务器存在的中心通信拥塞,但是单all-reduce在所有节点之间进行精细的流水线通信,容易导致大量的同步开销和延迟,由于这些原因,在大规模计算集群中并行sgd的分布式训练系统扩展性仍然存在很大的提升空间。
3.为了提高并行sgd算法的分布式训练系统扩展性,相关技术中提出采用gossip sgd算法的处理方式受到广泛的关注,较基于all-reduce的并行sgd算法相比,gossip sgd算法仅需要节点与近邻之间的同步信息,在特定的拓扑结构下,也能和all-reduce一样充分利用带宽,从而减少单次信息通信量以及次数。
4.但是,由于gossip sgd算法的收敛速度受到拓扑以及节点数量的影响,在大规模训练中往往较基于all-reduce的并行sgd算法存在精度损失,无法兼顾大规模分布式训练任务的收敛性;即相关技术中存在无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
5.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

6.本技术实施例提供了一种更新网络模型的方法、图像分类的方法、语言建模的方法,以至少解决相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
7.根据本技术实施例的一个方面,提供了一种更新网络模型的方法,包括:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
8.根据本技术实施例的另一方面,还提供了一种图像分类的方法,包括:获取待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
9.根据本技术实施例的另一方面,还提供了另一种图像分类的方法,包括:接收来自
于客户端的待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述图像分类结果反馈至上述客户端。
10.根据本技术实施例的另一方面,还提供了又一种图像分类的方法,包括:向服务端发送待分类图像;接收上述服务端反馈的图像分类结果,其中,上述图像分类结果由上述服务端将上述待分类图像输入至神经网络模型进行图像分类处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
11.根据本技术实施例的另一方面,还提供了一种语言建模的方法,包括:获取待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
12.根据本技术实施例的另一方面,还提供了另一种语言建模的方法,包括:接收来自于客户端的待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述语言建模结果反馈至上述客户端。
13.根据本技术实施例的另一方面,还提供了又一种语言建模的方法,包括:向服务端发送待处理的词序列;接收上述服务端反馈的语言建模结果,其中,上述语言建模结果由上述服务端将上述待处理的词序列输入至神经网络模型进行语言建模处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
14.根据本技术实施例的另一方面,还提供了一种非易失性存储介质,上述非易失性存储介质包括存储的程序,其中,在上述程序运行时控制上述非易失性存储介质所在设备执行任意一项上述的更新网络模型的方法,上述的图像分类的方法,以及上述的语言建模的方法。
15.根据本技术实施例的另一方面,还提供了一种更新网络模型的设备,包括:处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
16.在本技术实施例中,通过确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
17.本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通
过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例提出的更新网络模型的方法,针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度。
18.由此,本技术实施例通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,达到了提升分布式训练任务的收敛性和训练耗时的目的,从而实现了在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
附图说明
19.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
20.图1示出了一种用于实现更新网络模型的方法的计算机终端(或移动设备)的硬件结构框图;
21.图2是根据本技术实施例的一种更新网络模型的方法的流程图;
22.图3是根据本技术实施例的一种图像分类的方法的流程图;
23.图4是根据本技术实施例的另一种图像分类的方法的流程图;
24.图5是根据本技术实施例的又一种图像分类的方法的流程图;
25.图6是根据本技术实施例的一种语言建模的方法的流程图;
26.图7是根据本技术实施例的另一种语言建模的方法的流程图;
27.图8是根据本技术实施例的又一种语言建模的方法的流程图;
28.图9是根据本技术实施例的一种更新网络模型的装置的结构示意图;
29.图10是根据本技术实施例的一种图像分类的装置的结构示意图;
30.图11是根据本技术实施例的一种语言建模的装置的结构示意图;
31.图12是根据本技术实施例的一种更新网络模型的设备的结构示意图;
32.图13是根据本技术实施例的一种计算机终端的结构框图。
具体实施方式
33.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分的实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本技术保护的范围。
34.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于
清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
35.首先,在对本技术实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
36.all-reduce:分布式训练中常用的通信算子(primitives),不同节点间通过一定拓扑规则(ring/tree),实现信息的全同步,如不同节点的梯度求平均。
37.gossip:流言算法,在大规模训练里指的是在一轮迭代中,每个节点仅和自己的近邻交换信息,较all-reduce/parameter server等方式相比,节点间的信息并不完全同步,从全局上看,流言算法通过多次局部同步从而最终实现全局同步。
38.imagenet-1k:是指图像分类领域内常用的公开数据集,进行1000分类,训练数据量约128万图片。
39.wikipedia、bookcorps:自然语言处理中常用的英文语言库,常用于语言建模预训练等任务。
40.sgd:是指机器学习中常见的一种优化算法,即异步随机梯度下降算法,在深度学习中被广为应用。
41.local sgd:又称为model average,在分布式训练中,各个节点每做若干次局部参数更新之后,全局做一次参数同步,其优点在于减少了通信的频率,缺点在于收敛较差,最终训练得到的模型精度不佳。
42.gossip sgd:是指基于流言算法的优化算法,gossip sgd仅需要节点与近邻之间同步信息,在特定的拓扑结构下可以类似all-reduce充分利用带宽,从而减少单次信息通信量以及次数。但是,其收敛速度收到拓扑以及节点数量的影响,在大规模训练中往往较基于all-reduce的并行sgd算法有精度损失。
43.parallel sgd:在分布式训练中,各个节点在每次迭代中同步梯度/参数,收敛性较好,但是速度较慢,分布式系统扩展性不佳。
44.实施例1
45.根据本技术实施例,提供了一种更新网络模型的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
46.本技术实施例1所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现更新网络模型的方法的计算机终端(或移动设备)的硬件结构框图,如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,
……
,102n来示出)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为bus总线的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
47.应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件
或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本技术实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
48.存储器104可用于存储应用软件的软件程序以及模块,如本技术实施例中的更新网络模型的方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的更新网络模型的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
49.传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(network interface controller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。
50.显示器可以例如触摸屏式的液晶显示器(lcd),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
51.需要说明的是,相较于相关技术中通过all-reduce算法等进行数据并行训练的更新网络模型的方式,在gossip训练中,训练节点间通过某个逻辑拓扑结构相连接,假设有n个节点,可以采用一个n
×
n的拓扑矩阵w来描述节点间的连接关系,即w
ij
表示从node j到node i信息流动的权重。若w
ij
为0,则表示node j到node i不发生信息的流动,在本技术实施例的训练场景下特指模型参数的传递。
52.对于第k次gossip迭代中,对于node i而言,首先跟常见的数据并行训练一样通过模型前向和反向训练得到梯度在gossip训练中,首先根据梯度更新本地的模型:在更新模型后,根据当前的拓扑矩阵w将当前节点的模型发送到某些节点,并接受某些节点发送来的模型参数,进行加权求和得到本轮训练最终的模型
53.其中,上述其中,表示node i近邻节点的集合,包括其自身。
54.在每次迭代中,各个节点根据拓扑矩阵w进行节点间局部通信,也就导致了不同节点之间的模型参数存在差异,由于节点间的通信拓扑越稀疏,通信总节点数越多,节点间的模型方差越大,而模型之间存在方差,会导致收敛速率变慢,从而在相同的超参数设定(训练周期,学习率调节等)下,通过gossip sgd算法进行训练得到的网络模型在验证集上存在精度下降的问题。
55.在上述运行环境下,为了解决上述gossip sgd算法无法实现在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题,本技术提供了如图2
所示的一种更新网络模型的方法,图2是根据本技术实施例的一种更新网络模型的方法的流程图,如图2所示,该更新网络模型的方法包括:
56.步骤s202,确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;
57.步骤s204,在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
58.在本技术实施例中,通过确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
59.本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例提出的更新网络模型的方法,针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度。
60.由此,本技术实施例通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,达到了提升分布式训练任务的收敛性和训练耗时的目的,从而实现了在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
61.在一种可选的实施例中,上述方法适用于在分布式训练场景中更新不同节点的网络模型,可以广泛应用于各种分布式训练场景,例如:图像分类领域内的物体分类任务场景;自然语言处理中的语言建模任务场景。
62.通过本技术实施例,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在图像分类领域内的物体分类(imagenet)以及自然语言处理中的语言建模(wikipedia)等任务上均验证了本技术实施例所提出算法的优越性。
63.在本技术实施中,通过引入周期性全局同步思路,虽然周期性全局同步的轮次用时等同于all-reduce算法,但由于全局同步周期可以取得比较大,以及在引入自适应进行局部模型参数同步或全局模型参数同步后,可以减少全同步的轮次,在训练时间维度,并没有比纯gossip sgd算法慢很多,如在物体分类的任务场景中,引入全局同步在完成相同次迭代,在耗费时间仅多出7%的情况下,但完成弥补了纯gossip sgd算法的训练带来的精度损失。
64.需要说明的是,虽然适当延长训练的周期,也能弥补收敛速度变慢的带来的精度损失,但基于本技术实施例的实验结果来看,还是引入自适应周期全局同步的训练方法的总训练用时较短。本技术实施例在去中心化分布式训练中引入自适应的周期性全局同步方式来加速收敛性,在理论以及实验中均可以证明本技术实施例所提供的更新网络模型的方法的优势。
65.在一种可选的实施例中,对上述待训练网络模型进行局部模型参数同步包括:
66.步骤s302,采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步,其中,上述第一随机梯度下降算法是基于流言算法的异步随机梯度下降算法。
67.作为一种可选的实施例,基于分布式训练中通信算法的并行随机梯度下降算法(算法1)gossip-pga(periodic global averaging)如下所示:
[0068][0069]
本技术实施例在上述gossip sgd算法训练的基础上,引入了一个超参数h,即全局同步周期,该全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机,例如,每h-1次gossip sgd算法的通信后通过all-reduce算法进行一次全局模型参数同步,训练得到神经网络模型:该神经网络模型可以消除节点间的模型方差,从而起到加速收敛的作用(如上算法1的代码中4-7行所示)。
[0070]
在一种可选的实施例中,对上述待训练网络模型进行全局模型参数同步包括:
[0071]
步骤s402,采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,其中,上述第二随机梯度下降算法是基于分布式训练中通信算法的并行随机梯度下降算法。
[0072]
本技术实施例的发明人在实际训练中观察到,由于模型间的方差在训练的初期较大,随着学习率降低以及模型逐渐收敛,模型间的方差逐渐降低,而如上述提到的模型方差会降低收敛速度,所以在训练前期全局模型参数同步频率应该较为频繁,随着训练的进行,可以逐渐减少全局模型参数同步的频率。
[0073]
因此,本技术实施例进一步提出了基于流言算法的异步随机梯度下降算法(算法2)gossip-aga(adaptive global averaging)来避免人为选择最佳的全通信周期h,以及在不影响模型收敛的前提下尽量减少全通信的频次,该算法2如下所示:
[0074][0075][0076]
在一种可选的实施例中,上述方法还包括:
[0077]
步骤s502,在预设迭代次数中进行初始损失函数估计,得到第一估计结果;
[0078]
步骤s504,通过当前模型参数和当前采样数据进行当前损失函数估计,得到第二估计结果;
[0079]
步骤s506,采用上述第一估计结果、上述第二估计结果以及上述全局同步周期的初始值,获取上述全局同步周期的目标值。
[0080]
在训练初期,本技术实施例会选择预设迭代次数kw进行初始损失函数f的估计(如上算法2的代码中10-11行所示),得到第一估计结果;通过当前模型参数x_i和当前采样数据ξ_i进行当前损失函数估计,得到第二估计结果;采用上述第一估计结果、上述第二估计结果以及上述全局同步周期的初始值,在后续的训练中,根据如下计算公式来自适应调节迭代的全局同步周期h:
[0081]
其中代表向上取整,h_init为初始设置的迭代周期和f_init是热启动阶段求得的模型损失函数值,其余的迭代节点间根据拓扑结构进行基于gossip的通信(如上算法2的代码中15行所示)。
[0082]
在一种可选的实施例中,上述方法还包括:
[0083]
步骤s602,设置计数器的计数值;
[0084]
步骤s604,将上述计数值与上述目标值进行比较;
[0085]
步骤s606,当上述计数值不等于上述目标值时,采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步;当上述计数值等于上述目标值时,采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,并将上述计数值清零。
[0086]
可选的,上述计数器用于统计自上一次全局同步以来的gossip通信次数,即当前的gossip通信次数,只有当计数值等于目标值时,才采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,并将上述计数值清零。
[0087]
本技术实施例中,采用一个计数器c来统计自上一次全局同步以来的gossip通信次数(如上算法2的代码中2、7行所示),全局同步周期h初始化为一个比较小的值h
init
(如上算法2的代码中2-4行所示),当计数器的计数值等于全局同步周期h的当前周期数(即目标值),本技术实施例会进行一次全局同步(如上算法2的代码中6-13行所示)。
[0088]
例如,当上述计数值不等于上述目标值时,采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步;当上述计数值等于上述目标值时,采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,并将上述计数值清零。
[0089]
在上述运行环境下,本技术提供了如图3所示的一种图像分类的方法,图3是根据本技术实施例的一种图像分类的方法的流程图,如图3所示,该图像分类的方法,包括:
[0090]
步骤s702,获取待分类图像;
[0091]
步骤s704,将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0092]
在一种可选的实施例中,上述方法可以但不限于适用于以下场景:图像分类领域内的物体分类任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在图像分类领域内的物体分类(imagnet)的任务场景中,验证了本技术实施例所提供的图像分类算法的优越性。
[0093]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待分类图像输入至神经网络模型进行图像分类处理,可以提升输出图像分类结果的准确性并减少图像分类处理的时间。
[0094]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升输出图像分类结果的准确性并减少图像分类处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0095]
在上述运行环境下,本技术提供了如图4所示的另一种图像分类的方法,图4是根据本技术实施例的另一种图像分类的方法的流程图,如图4所示,该图像分类的方法,包括:
[0096]
步骤s802,接收来自于客户端的待分类图像;
[0097]
步骤s804,将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;
[0098]
步骤s806,将上述图像分类结果反馈至上述客户端。
[0099]
需要说明的是,上述步骤s802至步骤s806所提供的图像分类的方法的执行主体为服务端,该图像分类方法可以但不限于适用于以下场景:图像分类领域内的物体分类任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在图像分类领域内的物体分类(imagnet)的任务场景中,验证了本技术实施例所提供的图像分类算法的优越性。
[0100]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,服务端通过接收来自于客户端的待分类图像,将上述待分类图像输入至神经网络模型进行图像分类处理,并将输出的图像分类结果反馈至客户端。
[0101]
由于上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题。
[0102]
并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待分类图像输入至神经网络模型进行图
像分类处理,可以提升输出的图像分类结果的准确性并减少图像分类处理的时间。
[0103]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升输出图像分类结果的准确性并减少图像分类处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0104]
在上述运行环境下,本技术提供了如图5所示的另一种图像分类的方法,图5是根据本技术实施例的另一种图像分类的方法的流程图,如图5所示,该图像分类的方法,包括:
[0105]
步骤s902,向服务端发送待分类图像;
[0106]
步骤s904,接收上述服务端反馈的图像分类结果,其中,上述图像分类结果由上述服务端将上述待分类图像输入至神经网络模型进行图像分类处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0107]
需要说明的是,上述步骤s902至步骤s906所提供的图像分类的方法的执行主体为客户端,该图像分类方法可以但不限于适用于以下场景:图像分类领域内的物体分类任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在图像分类领域内的物体分类(imagnet)的任务场景中,验证了本技术实施例所提供的图像分类算法的优越性。
[0108]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,客户端向服务端发送待分类图像;服务端将上述待分类图像输入至神经网络模型进行图像分类处理,并将输出的图像分类结果反馈至客户端。
[0109]
由于上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题。
[0110]
并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待分类图像输入至神经网络模型进行图像分类处理,可以提升输出的图像分类结果的准确性并减少图像分类处理的时间。
[0111]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升输出图像分类结果的准确性并减少图像分类处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0112]
还需要说明的是,上述图像分类方法实施例的优选实施方式可以参见更新网络模型的方法实施例中的相关描述,此处不再赘述。
[0113]
在上述运行环境下,本技术提供了如图6所示的一种语言建模的方法,图6是根据本技术实施例的一种语言建模的方法的流程图,如图6所示,该语言建模的方法,包括:
[0114]
步骤s1002,获取待处理的词序列;
[0115]
步骤s1004,将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出
语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0116]
在一种可选的实施例中,上述方法适用于以下场景:自然语言处理中的语言建模任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在自然语言处理中的语言建模(wikipedia)的任务场景中,验证了本技术实施例所提供的语言建模算法的优越性。
[0117]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待处理的词序列输入至神经网络模型进行语言建模处理,可以提升输出语言建模结果的准确性并减少语言建模处理的时间。
[0118]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升语言建模结果的准确性并减少语言建模处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0119]
在上述运行环境下,本技术提供了如图7所示的另一种语言建模的方法,图6是根据本技术实施例的另一种语言建模的方法的流程图,如图7所示,该语言建模的方法,包括:
[0120]
步骤s1102,接收来自于客户端的待处理的词序列;
[0121]
步骤s1104,将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;
[0122]
步骤s1106,将上述语言建模结果反馈至上述客户端。
[0123]
需要说明的是,上述步骤s1102至步骤s1106所提供的语言建模方法的执行主体为服务端,该语言建模方法可以但不限于适用于以下场景:自然语言处理中的语言建模任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在自然语言处理中的语言建模(wikipedia)的任务场景中,验证了本技术实施例所提供的语言建模算法的优越性。
[0124]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,服务端通过接收来自于客户端的待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,并将输出的语言建模结果反馈至客户端。
[0125]
由于上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题。
[0126]
并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待处理的词序列输入至神经网络模型进行语言建模处理,可以提升输出语言建模结果的准确性并减少语言建模处理的时间。
[0127]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升语言建模结果的准确性并减少语言建模处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0128]
在上述运行环境下,本技术提供了如图8所示的又一种语言建模的方法,图8是根据本技术实施例的又一种语言建模的方法的流程图,如图8所示,该语言建模的方法,包括:
[0129]
步骤s1202,向服务端发送待处理的词序列;
[0130]
步骤s1204,接收上述服务端反馈的语言建模结果,其中,上述语言建模结果由上述服务端将上述待处理的词序列输入至神经网络模型进行语言建模处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0131]
需要说明的是,上述步骤s1202至步骤s1206所提供的语言建模方法的执行主体为客户端,该语言建模方法可以但不限于适用于以下场景:自然语言处理中的语言建模任务场景,通过全局同步周期在分布式训练中控制待训练网络模型的全局模型参数的更新时机,通过增加全局同步周期可以提升收敛速度,在自然语言处理中的语言建模(wikipedia)的任务场景中,验证了本技术实施例所提供的语言建模算法的优越性。
[0132]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,客户端向服务端发送待处理的词序列至服务端;服务端将上述待处理的词序列输入至神经网络模型进行语言建模处理,并将输出的语言建模结果反馈至客户端。
[0133]
由于上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题。
[0134]
并且,在相同迭代次数下,本技术实施例针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度,进而将上述待处理的词序列输入至神经网络模型进行语言建模处理,可以提升输出语言建模结果的准确性并减少语言建模处理的时间。
[0135]
由此,本技术实施例达到了在训练神经网络模型时提升分布式训练任务的收敛性和训练耗时的目的,从而实现了提升语言建模结果的准确性并减少语言建模处理的时间的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0136]
还需要说明的是,上述语言建模的方法实施例的优选实施方式可以参见更新网络模型的方法实施例中的相关描述,此处不再赘述。
[0137]
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列
的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为依据本技术,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本技术所必须的。
[0138]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个非易失性存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本技术各个实施例上述的方法。
[0139]
实施例2
[0140]
根据本技术实施例,还提供了一种用于实施上述更新网络模型的方法的装置实施例,图9是根据本技术实施例的一种更新网络模型的装置的结构示意图,如图9所示,该更新网络模型的装置包括:确定模块500、更新模块502,其中:
[0141]
确定模块500,用于确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;更新模块502,用于在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0142]
此处需要说明的是,上述确定模块500、更新模块502对应于实施例1中的步骤s202至步骤s204,两个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0143]
根据本技术实施例,还提供了一种用于实施上述图像分类的方法的装置实施例,图10是根据本技术实施例的一种图像分类的装置的结构示意图,如图10所示,该图像分类的装置包括:图像获取模块600、分类处理模块602,其中:
[0144]
图像获取模块600,用于获取待分类图像;分类处理模块602,用于将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0145]
此处需要说明的是,上述图像获取模块600、分类处理模块602对应于实施例1中的步骤s702至步骤s704,两个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0146]
根据本技术实施例,还提供了一种用于实施上述语言建模的方法的装置实施例,图11是根据本技术实施例的一种语言建模的装置的结构示意图,如图11所示,该语言建模的装置包括:序列获取模块700、建模处理模块702,其中:
[0147]
序列获取模块700,用于获取待处理的词序列;建模处理模块702,用于将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同
步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0148]
此处需要说明的是,上述序列获取模块700、建模处理模块702对应于实施例1中的步骤s1002至步骤s1004,两个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
[0149]
还需要说明的是,本实施例的优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
[0150]
实施例3
[0151]
根据本技术实施例,还提供了一种更新网络模型的设备的实施例,该更新网络模型的设备可以是计算设备群中的任意一个计算设备。图12是根据本技术实施例的一种更新网络模型的设备的结构示意图,如图12所示,该更新网络模型的设备包括:处理器800和存储器802,其中:
[0152]
处理器800;以及存储器802,与上述处理器800连接,用于为上述处理器提供处理以下处理步骤的指令:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0153]
在本技术实施例中,通过确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0154]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例提出的更新网络模型的方法,针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度。
[0155]
由此,本技术实施例通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,达到了提升分布式训练任务的收敛性和训练耗时的目的,从而实现了在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0156]
还需要说明的是,本实施例的优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
[0157]
实施例4
[0158]
根据本技术的实施例,还提供了一种计算机终端的实施例,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
[0159]
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中
的至少一个网络设备。
[0160]
在本实施例中,上述计算机终端可以执行更新网络模型的方法中以下步骤的程序代码:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0161]
可选地,图13是根据本技术实施例的一种计算机终端的结构框图,如图13所示,该计算机终端可以包括:一个或多个(图中仅示出一个)处理器902、存储器904、以及外设接口906。
[0162]
其中,存储器可用于存储软件程序以及模块,如本技术实施例中的更新网络模型的方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的更新网络模型的方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0163]
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0164]
可选的,上述处理器还可以执行如下步骤的程序代码:采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步,其中,上述第一随机梯度下降算法是基于流言算法的异步随机梯度下降算法。
[0165]
可选的,上述处理器还可以执行如下步骤的程序代码:采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,其中,上述第二随机梯度下降算法是基于分布式训练中通信算法的并行随机梯度下降算法。
[0166]
可选的,上述处理器还可以执行如下步骤的程序代码:在预设迭代次数中进行初始损失函数估计,得到第一估计结果;通过当前模型参数和当前采样数据进行当前损失函数估计,得到第二估计结果;采用上述第一估计结果、上述第二估计结果以及上述全局同步周期的初始值,获取上述全局同步周期的目标值。
[0167]
可选的,上述处理器还可以执行如下步骤的程序代码:设置计数器的计数值;将上述计数值与上述目标值进行比较;当上述计数值不等于上述目标值时,采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步;当上述计数值等于上述目标值时,采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,并将上述计数值清零。
[0168]
可选的,上述处理器还可以执行如下步骤的程序代码:获取待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步
周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0169]
可选的,上述处理器还可以执行如下步骤的程序代码:获取待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0170]
采用本技术实施例,提供了一种更新网络模型的方案。通过确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0171]
本技术实施例提出了一种结合全局同步加速收敛的去中心化分布式训练算法,通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,训练得到神经网络模型,可以解决去中心化分布式训练算法带来的收敛变慢的问题,并且,在相同迭代次数下,本技术实施例提出的更新网络模型的方法,针对大规模分布式训练任务的收敛性优于去中心化分布式训练算法,与同步分布式训练算法相比不仅可以达到相近的收敛性,而且大幅减少训练耗时并提升通信速度。
[0172]
由此,本技术实施例通过确定全局同步周期以及自适应进行全局模型参数同步或局部模型参数同步,达到了提升分布式训练任务的收敛性和训练耗时的目的,从而实现了在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术效果,进而解决了相关技术中在训练神经网络模型时,无法在保证分布式系统的通信速度的基础上,兼顾大规模分布式训练任务的收敛性的技术问题。
[0173]
可选的,上述处理器还可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于客户端的待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述图像分类结果反馈至上述客户端。
[0174]
可选的,上述处理器还可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:向服务端发送待分类图像;接收上述服务端反馈的图像分类结果,其中,上述图像分类结果由上述服务端将上述待分类图像输入至神经网络模型进行图像分类处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0175]
可选的,上述处理器还可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于客户端的待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述语言建模结果反馈至上述客户端。
[0176]
可选的,上述处理器还可以通过传输装置调用存储器存储的信息及应用程序,以
执行下述步骤:向服务端发送待处理的词序列;接收上述服务端反馈的语言建模结果,其中,上述语言建模结果由上述服务端将上述待处理的词序列输入至神经网络模型进行语言建模处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0177]
本领域普通技术人员可以理解,图13所示的结构仅为示意,计算机终端也可以是智能手机(如android手机、ios手机等)、平板电脑、掌声电脑以及移动互联网设备(mobile internet devices,mid)、pad等终端设备。图13其并不对上述电子装置的结构造成限定。例如,计算机终端还可包括比图13中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图13所示不同的配置。
[0178]
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读非易失性存储介质中,非易失性存储介质可以包括:闪存盘、只读存储器(read-only memory,rom)、随机存取器(random access memory,ram)、磁盘或光盘等。
[0179]
实施例5
[0180]
根据本技术的实施例,还提供了一种非易失性存储介质的实施例。可选地,在本实施例中,上述非易失性存储介质可以用于保存上述实施例1所提供的更新网络模型的方法、图像分类的方法、语言建模的方法所执行的程序代码。
[0181]
可选地,在本实施例中,上述非易失性存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
[0182]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:确定全局同步周期,其中,上述全局同步周期用于在分布式训练中,控制待训练网络模型的全局模型参数的更新时机;在未达到上述全局同步周期时,对上述待训练网络模型进行局部模型参数同步,以及在达到上述全局同步周期时,对上述待训练网络模型进行全局模型参数同步。
[0183]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局部通信的节点进行局部模型参数同步,其中,上述第一随机梯度下降算法是基于流言算法的异步随机梯度下降算法。
[0184]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,其中,上述第二随机梯度下降算法是基于分布式训练中通信算法的并行随机梯度下降算法。
[0185]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:在预设迭代次数中进行初始损失函数估计,得到第一估计结果;通过当前模型参数和当前采样数据进行当前损失函数估计,得到第二估计结果;采用上述第一估计结果、上述第二估计结果以及上述全局同步周期的初始值,获取上述全局同步周期的目标值。
[0186]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:设置计数器的计数值;将上述计数值与上述目标值进行比较;当上述计数值不等于上述目标值时,采用第一随机梯度下降算法对上述待训练网络模型中根据拓扑矩阵进行局
部通信的节点进行局部模型参数同步;当上述计数值等于上述目标值时,采用第二随机梯度下降算法对上述待训练网络模型进行全局模型参数同步,并将上述计数值清零。
[0187]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0188]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0189]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于客户端的待分类图像;将上述待分类图像输入至神经网络模型进行图像分类处理,输出图像分类结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述图像分类结果反馈至上述客户端。
[0190]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:向服务端发送待分类图像;接收上述服务端反馈的图像分类结果,其中,上述图像分类结果由上述服务端将上述待分类图像输入至神经网络模型进行图像分类处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0191]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于客户端的待处理的词序列;将上述待处理的词序列输入至神经网络模型进行语言建模处理,输出语言建模结果,其中,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机;将上述语言建模结果反馈至上述客户端。
[0192]
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:向服务端发送待处理的词序列;接收上述服务端反馈的语言建模结果,其中,上述语言建模结果由上述服务端将上述待处理的词序列输入至神经网络模型进行语言建模处理后得到,上述神经网络模型是通过在分布式训练中对待训练网络模型进行更新后得到的模型,并且通过全局同步周期在上述分布式训练中控制上述待训练网络模型的全局模型参数的更新时机。
[0193]
上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。
[0194]
在本技术的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0195]
在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的
方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0196]
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0197]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0198]
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本技术各个实施例上述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0199]
以上上述仅是本技术的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本技术的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1