神经网络训练方法及装置和环境处理方法及装置与流程

文档序号:16581114发布日期:2019-01-14 17:58阅读:156来源:国知局
神经网络训练方法及装置和环境处理方法及装置与流程

本公开涉及计算机技术领域,尤其涉及一种神经网络训练方法及装置和环境处理方法及装置。



背景技术:

在相关技术中,可将描述当前周期的环境的环境状态向量输入神经网络中,获得动作输出和衡量输出,将动作输出作用于环境中,环境可由于所述动作输出而发生变化,获得下一个周期的环境,同时获得对该动作输出的奖惩反馈。根据该奖惩反馈来确定神经网络的损失函数,以训练神经网络。但该训练方法根据单一的奖惩反馈来确定损失函数,容易使训练过程陷入局部最优解,难以获得拟合优度较高的神经网络。



技术实现要素:

本公开提出了一种神经网络训练方法及装置和环境处理方法及装置。

根据本公开的一方面,提供了一种神经网络训练方法,包括:

将当前训练周期的环境状态向量输入神经网络中进行处理,获得当前训练周期的动作输出和当前训练周期的衡量输出;

根据所述当前训练周期的环境状态向量和所述当前训练周期的动作输出,确定当前训练周期的第一奖惩反馈;

根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的衡量输出,确定所述神经网络的模型损失,所述历史训练周期包括在所述当前训练周期之前的一个或多个训练周期;

根据所述模型损失,调整所述神经网络的网络参数值;

在所述神经网络满足训练条件时,获得训练后的神经网络。

根据本公开的实施例的神经网络训练方法,将环境状态向量输入神经网络可获得当前训练周期的动作输出和当前训练周期的衡量输出,并根据当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈以及所述衡量输出确定模型损失,通过多个奖惩反馈来确定的模型损失在训练神经网络的过程中不易陷入局部最优解,可获得拟合优度较高的神经网络。

在一种可能的实现方式中,所述当前周期的衡量输出包括当前训练周期的第一衡量输出和当前训练周期的第二衡量输出。

在一种可能的实现方式中,所述模型损失包括与所述第一衡量输出对应的第一模型损失、与所述第二衡量输出对应的第二模型损失以及与所述动作输出对应的第三模型损失。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的衡量输出,确定所述第一神经网络的模型损失,包括:

根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失;

根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失;

根据所述第一模型损失和所述第二模型损失,确定所述第三模型损失。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失,包括:

根据所述当前训练周期的第一奖惩反馈、预设的折现率和第一期望奖惩函数,确定第一累积折现奖惩反馈;

根据所述第一累积折现奖惩反馈和所述第一衡量输出,确定所述第一模型损失。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失,包括:

根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈;

根据所述当前训练周期的第二奖惩反馈、预设的折现率以及第二期望奖惩函数,确定第二累积折现奖惩反馈;

根据所述第二累积折现奖惩反馈和所述第二衡量输出,确定所述第二模型损失。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈,包括:

根据历史训练周期的第一奖惩反馈和当前训练周期的第一奖惩反馈,确定奖惩变化向量;

根据所述奖惩变化向量,获得变化累积向量;

根据所述变化累积向量,获得零波动奖惩向量;

根据所述变化累积向量和所述零波动奖惩向量,确定所述第二奖惩反馈。

通过这种方式,可通过多个历史训练周期的第一奖惩反馈来获得第二奖惩反馈,能够使训练过程获得更多的有效的奖惩反馈,可使神经网络能够适用于更加复杂的环境,提升神经网络的性能。

在一种可能的实现方式中,所述方法还包括:

根据所述当前训练周期的前一个训练周期的环境状态向量和所述前一个训练周期的动作输出,确定所述当前训练周期的环境状态向量。

在一种可能的实现方式中,所述方法还包括:

当所述当前训练周期为训练所述神经网络的第一个训练周期时,根据预设的初始环境状态向量和随机动作输出,获得所述当前训练周期的环境状态向量。

通过这种方式,可使初始环境迅速成为可用于训练神经网络的环境,能够使神经网络的获得有效的奖惩反馈,提高训练神经网络的效率,并使训练过程不易陷入局部最优解。

根据本公开的另一方面,提供了一种环境处理方法,所述方法包括:

将当前周期的环境状态向量输入所述神经网络中进行处理,获得当前周期的动作输出;

根据当前周期的环境状态向量以及所述当前周期的动作输出,确定当前周期的下一个周期的环境状态向量以及当前周期的第一奖惩反馈。

根据本公开的另一方面,提供了一种神经网络训练装置,包括:

输入模块,用于将当前训练周期的环境状态向量输入神经网络中进行处理,获得当前训练周期的动作输出和当前训练周期的衡量输出;

反馈确定模块,用于根据所述当前训练周期的环境状态向量和所述当前训练周期的动作输出,确定当前训练周期的第一奖惩反馈;

模型损失确定模块,用于根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的衡量输出,确定所述神经网络的模型损失,所述历史训练周期包括在所述当前训练周期之前的一个或多个训练周期;

调整模块,用于根据所述模型损失,调整所述神经网络的网络参数值;

神经网络获得模块,用于在所述神经网络满足训练条件时,获得训练后的神经网络。

在一种可能的实现方式中,所述当前周期的衡量输出包括当前训练周期的第一衡量输出和当前训练周期的第二衡量输出。

在一种可能的实现方式中,所述模型损失包括与所述第一衡量输出对应的第一模型损失、与所述第二衡量输出对应的第二模型损失以及与所述动作输出对应的第三模型损失。

在一种可能的实现方式中,所述模型损失确定模块进一步用于:

根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失;

根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失;

根据所述第一模型损失和所述第二模型损失,确定所述第三模型损失。

在一种可能的实现方式中,所述模型损失确定模块进一步用于:

根据所述当前训练周期的第一奖惩反馈、预设的折现率和第一期望奖惩函数,确定第一累积折现奖惩反馈;

根据所述第一累积折现奖惩反馈和所述第一衡量输出,确定所述第一模型损失。

在一种可能的实现方式中,所述模型损失确定模块进一步用于:

根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈;

根据所述当前训练周期的第二奖惩反馈、预设的折现率以及第二期望奖惩函数,确定第二累积折现奖惩反馈;

根据所述第二累积折现奖惩反馈和所述第二衡量输出,确定所述第二模型损失。

在一种可能的实现方式中,所述模型损失确定模块进一步用于:

根据历史训练周期的第一奖惩反馈和当前训练周期的第一奖惩反馈,确定奖惩变化向量;

根据所述奖惩变化向量,获得变化累积向量;

根据所述变化累积向量,获得零波动奖惩向量;

根据所述变化累积向量和所述零波动奖惩向量,确定所述第二奖惩反馈。

在一种可能的实现方式中,所述装置还包括:

第一确定模块,用于根据所述当前训练周期的前一个训练周期的环境状态向量和所述前一个训练周期的动作输出,确定所述当前训练周期的环境状态向量。

在一种可能的实现方式中,所述装置还包括:

第二确定模块,用于当所述当前训练周期为训练所述神经网络的第一个训练周期时,根据预设的初始环境状态向量和随机动作输出,获得所述当前训练周期的环境状态向量。

在一种可能的实现方式中,所述装置包括:

动作输出获得模块,用于将当前周期的环境状态向量输入权利要求1至9中任意一项所述的神经网络中进行处理,获得当前周期的动作输出;

第三确定模块,用于根据当前周期的环境状态向量以及所述当前周期的动作输出,确定当前周期的下一个周期的环境状态向量以及当前周期的第一奖惩反馈。

根据本公开的另一方面,提供了一种电子设备,包括:

处理器;

用于存储处理器可执行指令的存储器;

其中,所述处理器被配置为:执行上述神经网络训练方法。

根据本公开的另一方面,提供了一种电子设备,包括:

处理器;

用于存储处理器可执行指令的存储器;

其中,所述处理器被配置为:执行上述环境处理方法。

根据本公开的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述神经网络训练方法。

根据本公开的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述环境处理方法。

根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。

附图说明

包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。

图1示出根据本公开的实施例的神经网络训练方法的流程图;

图2示出根据本公开的实施例的环境处理方法的流程图;

图3示出根据本公开的实施例的神经网络训练方法的应用示意图;

图4示出根据本公开的实施例的神经网络训练装置的框图;

图5示出根据本公开的实施例的神经网络训练装置的框图;

图6示出根据本公开的实施例的环境处理装置的框图;

图7是根据的示例性实施例示出的电子设备的框图;

图8是根据的示例性实施例示出的电子设备的框图。

具体实施方式

以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。

在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。

另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。

图1示出根据本公开的实施例的神经网络训练方法的流程图。如图1所示,所述方法包括:

在步骤s11中,将当前训练周期的环境状态向量输入神经网络中进行处理,获得当前训练周期的动作输出和当前训练周期的衡量输出;

在步骤s12中,根据所述当前训练周期的环境状态向量和所述当前训练周期的动作输出,确定当前训练周期的第一奖惩反馈;

在步骤s13中,根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的衡量输出,确定所述神经网络的模型损失,所述历史训练周期包括在所述当前训练周期之前的一个或多个训练周期;

在步骤s14中,根据所述模型损失,调整所述神经网络的网络参数值;

在步骤s15中,在所述神经网络满足训练条件时,获得训练后的神经网络。

根据本公开的实施例的神经网络训练方法,将环境状态向量输入神经网络可获得当前训练周期的动作输出和当前训练周期的衡量输出,并根据当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈以及所述衡量输出确定模型损失,通过多个奖惩反馈来确定的模型损失,在训练神经网络的过程中不易陷入局部最优解,可获得拟合优度较高的神经网络。

在一种可能的实现方式中,当前训练周期的环境可表示当前的状态,例如,游戏、自动驾驶车辆所处的交通环境或者在金融市场中的交易情况等。将神经网络的动作输出可被作用于当前周期的环境中,对环境造成改变。在示例中,动作输出是游戏中的动作指令,例如,所述游戏是投篮游戏,动作指令可以是命令游戏中的角色投篮的指令,以改变当前的得分情况。在示例中,动作输出可以是自动驾驶中的操作指令,可指挥被驾驶的车辆执行操作,以改变当前的交通环境。在示例中,动作输出可以是金融市场中的交易指令,可执行交易操作,以改变当前的市场价格。本公开对环境和动作输出的类型不做限制。

在一种可能的实现方式中,在步骤s11中,可将描述当前训练周期的环境的环境状态向量输入神经网络中进行处理,该神经网络可以是在上一个训练周期训练后的神经网络。

在一种可能的实现方式中,所述神经网络可对当前训练周期的环境状态向量进行处理,可获得当前训练周期的动作输出和当前训练周期的衡量输出。所述当前训练周期的动作输出可作用于当前周期的环境,所述当前训练周期衡量输出可用于在对神经网络进行反向调整时,作为调整的参数。

在一种可能的实现方式中,当所述当前训练周期为训练所述神经网络的第一个训练周期时,可根据预设的初始环境状态向量和随机动作输出,获得所述当前训练周期的环境状态向量。在示例中,在未开始训练神经网络时,首先使用随机动作输出作用于初始的环境中,该动作可重复执行多次。在示例中,随机动作输出可以是向量,向量的每个元素的选取均服从某个概率分布函数,例如,softmax函数。在重复执行的过程中,均使用该随机动作输出,即,该随机动作输出作用于初始环境中,初始环境可发生改变,获得第一初始环境,随后将该随机动作输出作用于第一初始环境,则第一初始环境可发生改变,获得第二初始环境。可重复执行多次,例如,可设定重复执行的次数为m(m为大于或等于1的正整数),在重复执行m次后,将获得的环境确定为第一个训练周期的环境,之后可将描述第一个训练周期的环境的环境状态向量输入神经网络进行处理,并对神经网络进行训练。

通过这种方式,可使初始环境迅速成为可用于训练神经网络的环境,能够使神经网络的获得有效的奖惩反馈,提高训练神经网络的效率,并使训练过程不易陷入局部最优解。

在一种可能的实现方式中,在步骤s12中,可将当前训练周期的动作输出作用于当前训练周期的环境,即,将当前训练周期的环境状态向量和所述当前训练周期的动作输出通过向量运算或矩阵运算(例如,可包括相加、相乘或卷积等运算,本公开对向量运算或矩阵运算的类型不做限制),可获得当前训练周期的第一奖惩反馈,所述第一奖惩反馈可表示当前训练周期的动作输出作用于当前周期的环境后,所述环境与理想状态之间的差距的变化。

在示例中,所述环境为投篮游戏,理想状态为我方得分与对方得分的分差最大化,在将当前训练周期的动作输出作用于所述环境后,可获得第一奖惩反馈,例如,我方投进,可获得正的第一奖惩反馈,对方投进可获得负的第一奖惩反馈,都未投进,则奖惩反馈为0。

在示例中,所述环境为行驶中所处的交通环境,在将当前训练周期的动作输出作用于所述环境后,可获得第一奖惩反馈,例如,在车辆执行与所述动作输出关联的操作后,交通环境改善(例如,道路畅通),则可获得正的第一奖惩反馈,在车辆执行与所述动作输出关联的操作后,交通环境恶化(例如,车辆驶入一条拥挤的道路),可获得负的第一奖惩反馈,在车辆执行与所述动作输出关联的操作后,交通状态无变化,则第一奖惩反馈为0。

在示例中,所述环境为金融市场中的交易情况,在将当前训练周期的动作输出作用于所述环境后,可获得第一奖惩反馈,例如,在执行与所述动作输出关联的交易操作后,收益为正,则可获得正的第一奖惩反馈,在执行与所述动作输出关联的交易操作后,收益为负,则可获得负的第一奖惩反馈,在执行与所述动作输出关联的交易操作后,没有收益(即,未执行交易操作,或执行的交易盈亏平衡等情况),则第一奖惩反馈为0。

在一种可能的实现方式中,根据所述当前训练周期的环境状态向量和所述当前训练周期的动作输出,还可确定下一个训练周期的环境状态向量。在示例中,可将当前训练周期的环境状态向量和所述当前训练周期的动作输出通过向量运算或矩阵运算(例如,可包括相加、相乘或卷积等运算,本公开对向量运算或矩阵运算的类型不做限制),可获得下一个训练周期的环境状态向量。具体地,当前训练周期的动作输出可作用于环境,并使环境发生改变,获得下一个训练周期的环境,下一个训练周期的环境状态向量即为描述下一个训练周期的环境的状态向量。

在一种可能的实现方式中,可根据所述当前训练周期的前一个训练周期的环境状态向量和所述前一个训练周期的动作输出,确定所述当前训练周期的环境状态向量。即,当前训练周期的环境状态向量是由当前训练周期的前一个训练周期的环境状态向量和所述前一个训练周期的动作输出通过向量运算或矩阵运算来确定的。可将前一个训练周期的动作输出作用于前一个训练周期环境,获得当前训练周期的环境。

在一种可能的实现方式中,在步骤s13中,可根据当前训练周期的衡量输出、所述当前训练周期的第一奖惩反馈以及一个或多个历史训练周期的第一奖惩反馈,确定所述神经网络的模型损失。其中,所述当前周期的衡量输出包括当前训练周期的第一衡量输出和当前训练周期的第二衡量输出,所述模型损失包括与所述第一衡量输出对应的第一模型损失、与所述第二衡量输出对应的第二模型损失以及与所述动作输出对应的第三模型损失。

在一种可能的实现方式中,步骤s13可包括:

根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失;根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失;根据所述第一模型损失和所述第二模型损失,确定所述第三模型损失。

在一种可能的实现方式中,第一模型损失与第一衡量输出相对应。所述第一模型损失可通过神经网络的第一衡量输出进行反向传播,以对神经网络的权值等参数进行调节。在示例中,第一模型损失与当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出相关。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失,可包括:

根据所述当前训练周期的第一奖惩反馈、预设的折现率和第一期望奖惩函数,确定第一累积折现奖惩反馈;根据所述第一累积折现奖惩反馈和所述第一期望奖惩函数,确定所述第一模型损失。

在一种可能的实现方式中,可按照以下公式(1),根据所述当前训练周期的第一奖惩反馈rt、预设的折现率γ和第一期望奖惩函数v来确定第一累积折现奖惩反馈

其中,第一累积折现奖惩反馈不涉及历史训练周期的第一奖惩反馈,因此可被确定为短周期累积折现奖惩反馈。第一期望奖惩函数v是对当前训练周期的环境的第一累积折现奖惩反馈的估值函数,该函数的输入可以是环境状态向量。预设的折现率γ为常数,例如0.9。n为大于或等于1的正整数,t为当前训练周期,rt+n为使用当前训练周期的动作输出作用于环境时,在第t+n个周期的第一奖惩反馈(0≤n≤n-1),例如,将当前训练周期的动作输出作用于当前环境,可获得当前环境的第一奖惩反馈rt和下一个训练周期的环境状态向量st+1,将当前训练周期的动作输出作用于下一个训练周期的环境,可下一个训练周期的奖惩反馈rt+1和两个训练周期后的环境状态向量st+2。通过这种方式,可获得在动作输出为当前训练周期的动作输出的情况下的每个训练周期的第一奖惩反馈,以及n个训练周期后的环境状态向量st+n。v(st+n)的估值结果为对n个训练周期后的环境的第一累积折现奖惩反馈期望值,本公开对n的数值不限制。例如,所述环境为金融市场中的交易情况,第一期望奖惩函数v可用于估计期望收益。

在一种可能的实现方式中,可按照以下公式(2),根据第一累积折现奖惩反馈和第一衡量输出,确定所述第一模型损失l1。

其中,v(st)为对当前训练周期的环境的第一累积折现奖惩反馈期望值,即,将当前训练周期的环境状态向量st输入第一期望奖惩函数v所获得的期望值,在示例中,v(st)的值即为第一衡量输出。

在一种可能的实现方式中,第二模型损失与第二衡量输出相对应。所述第二模型损失可通过神经网络的第二衡量输出进行反向传播,以对神经网络的权值等参数进行调节。在示例中,第二模型损失与当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈以及当前训练周期的第二衡量输出相关。根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失,包括:根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈;根据所述当前训练周期的第二奖惩反馈、预设的折现率以及第二期望奖惩函数,确定第二累积折现奖惩反馈;根据所述第二累积折现奖惩反馈和所述第二衡量输出,确定所述第二模型损失。

在一种可能的实现方式中,根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈,可包括:

根据历史训练周期的第一奖惩反馈和当前训练周期的第一奖惩反馈,确定奖惩变化向量;根据所述奖惩变化向量,获得变化累积向量;根据所述变化累积向量,获得零波动奖惩向量;根据所述变化累积向量和所述零波动奖惩向量,确定所述第二奖惩反馈。

在一种可能的实现方式中,可根据历史训练周期的第一奖惩反馈rt-1、rt-2、rt-3等和当前训练周期的第一奖惩反馈rt,确定奖惩变化向量d=[dt-(t-1),dt-(t-2),...,dt]。在示例中,可使用t个训练周期的第一奖惩反馈,t为大于或等于2的正整数,在示例中,t可以是20,本公开对t的数值不做限制。在示例中,可将t个训练周期的第一奖惩反馈组成向量[rt-(t-1),...rt-2,rt-1,rt]。进一步地,可根据该向量确定每个训练历史周期的奖惩反馈相对于其上一个训练周期的奖惩反馈的变化,即,d=[rt-(t-1),rt-(t-2)-rt-(t-1),...rt-1-rt-2,rt-rt-1],在奖惩变化向量d中,dt-(t-1)=rt-(t-1),dt-(t-2)=rt-(t-2)-rt-(t-1),...dt=rt-rt-1。

在一种可能的实现方式中,可根据奖惩变化向量d,获得变化累积向量在示例中,可将奖惩变化向量d的顺序翻转,获得向量f=[f1,f2,...,ft]=[dt,dt-1,...,dt-(t-1)],并对向量f的元素进行累加,获得变化累积向量即,0≤i≤t+1。即,

在一种可能的实现方式中,可根据变化累积向量确定零波动奖惩向量在示例中,其中,即,

在一种可能的实现方式中,可根据变化累积向量和所述零波动奖惩向量确定所述第二奖惩反馈在示例中,可根据变化累积向量中的元素确定奖惩估计参数rh,如以下公式(3):

可根据变化累积向量和所述零波动奖惩向量中的元素,确定变化累积向量和所述零波动奖惩向量的差值与零波动奖惩向量之间的比值,如以下公式(4):

其中,1≤k≤t+1,根据公式(4)可确定t+1个比值,并确定该t+1个比值的方差进一步地,可根据奖惩估计参数rh和方差确定第二奖惩反馈如以下公式(5):

其中,τ和σmax为设置的参数,τ可用于控制的幅值,σmax可用于控制的波动,在示例中,σmax=1,τ=2,本公开对τ和σmax的取值不做限制。

通过这种方式,可通过多个历史训练周期的第一奖惩反馈来获得第二奖惩反馈,能够使训练过程获得更多的有效的奖惩反馈,可使神经网络能够适用于更加复杂的环境,提升神经网络的性能。

在一种可能的实现方式中,可按照以下公式(6),可根据所述当前训练周期的第二奖惩反馈预设的折现率γ以及第二期望奖惩函数vvwr,确定第二累积折现奖惩反馈

其中,第二累积折现奖惩反馈涉及历史训练周期的第一奖惩反馈,因此可被确定为长周期累积折现奖惩反馈。第二期望奖惩函数vvwr是对当前训练周期的环境的第二累积折现奖惩反馈的估值函数,该函数的输入可以是环境状态向量。为使用当前训练周期的动作输出作用于环境时,在第t+n个周期的第二奖惩反馈,例如,将当前训练周期的动作输出作用于当前环境,可获得当前环境的第二奖惩反馈和下一个训练周期的环境状态向量st+1,将当前训练周期的动作输出作用于下一个训练周期的环境,可下一个训练周期的奖惩反馈和两个训练周期后的环境状态向量st+2。通过这种方式,可获得在动作输出为当前训练周期的动作输出的情况下的每个训练周期的第二奖惩反馈,以及n个训练周期后的环境状态向量st+n。vvwr(st+n)的估值结果为在动作输出为当前训练周期的动作输出的情况下,对n个训练周期后的环境的第二累积折现奖惩反馈期望值,本公开对n的数值不限制。

在一种可能的实现方式中,可按照以下公式(7),根据第二累积折现奖惩反馈和第二衡量输出,确定所述第一模型损失l2。

其中,vvwr(st)为对当前训练周期的环境的第二累积折现奖惩反馈期望值,即,将当前训练周期的环境状态向量st输入第二期望奖惩函数vvwr所获得的期望值,在示例中,vvwr(st)的值即为第二衡量输出。

在一种可能的实现方式中,可按照以下公式(8),根据第一模型损失l1和第二模型损失l2,来确定与动作输出at对应的第三模型损失l3。

其中,π(at|st;θ)为当前训练周期的神经网络的表达式,θ为当前训练周期的神经网络的网络参数值,的平方为第一模型损失l1,的平方为第二模型损失l2。

在一种可能的实现方式中,在步骤s14中,可根据第一模型损失l1、第二模型损失l2和第三模型损失l3来调整神经网络的网络参数值。在示例中,可按照使模型损失最小化的方向来调整神经网络的网络参数值,或者按照使正则化的模型损失最小化的方向来调整神经网络的网络参数值,使调整后的神经网络具有较高的拟合优度,同时避免过拟合。

在一种可能的实现方式中,步骤s14可循环执行多次,例如,可按照使模型损失最小化的方向调节预定的次数;也可不限制调节的次数,多次调节直到模型损失降低到一定程度或收敛于一定阈值内时,停止循环。

在一种可能的实现方式中,在步骤s15中,在满足训练条件时,可获得训练后的神经网络。在示例中,可将循环调节预定次数后的神经网络确定为训练后的神经网络,或将模型损失降低到一定程度或收敛于一定阈值内的神经网络确定为训练后的神经网络。本公开对训练条件不做限制。

根据本公开的实施例的神经网络训练方法,使用随机动作输出迅速获得第一个训练周期的环境,可使神经网络的获得有效的奖惩反馈,提高训练神经网络的效率,并使训练过程不易陷入局部最优解。进一步地,根据当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈以及第一衡量输出和第二衡量输出来确定模型损失,能够使训练过程获得更多的有效的奖惩反馈,可使神经网络能够适用于更加复杂的环境,提升神经网络的性能,并且,通过多个奖惩反馈来确定的模型损失在训练神经网络的过程中不易陷入局部最优解,可获得拟合优度较高的神经网络。

图2示出根据本公开的实施例的环境处理方法的流程图。如图2所示,所述方法包括:

在步骤s21中,将当前周期的环境状态向量输入的神经网络中进行处理,获得当前周期的动作输出;

在步骤s22中,根据当前周期的环境状态向量以及所述当前周期的动作输出,确定当前周期的下一个周期的环境状态向量以及当前周期的第一奖惩反馈。

在一种可能的实现方式中,在步骤s21中,所述神经网络即为经过步骤s11-步骤s15的训练方法训练过的神经网络,根据当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈以及第一衡量输出和第二衡量输出确定的模型损失训练的神经网络,在训练过程中能够获得更多的有效的奖惩反馈,因此,所述训练后的神经网络能够适用于更加复杂的环境,可获得更准确的动作输出。

在一种可能的实现方式中,在步骤s22中,可将当前周期的动作输出和当前周期的环境状态向量通过向量运算或矩阵运算(例如,可包括相加、相乘或卷积等运算,本公开对向量运算或矩阵运算的类型不做限制),可获得下一个周期的环境状态向量。具体地,当前周期的动作可作用于环境,并使环境发生改变,获得下一个周期的环境,下一个周期的环境状态向量即为描述下一个周期的环境的状态向量。进一步地,当前周期的环境变化为下一个周期的环境时,可获得当前周期的第一奖惩反馈,所述第一奖惩反馈可用于表征将当前周期的动作输出作用于当前周期的环境时,产生的收益。例如,所述环境为金融市场中的交易情况,在将当前训练周期的动作输出(例如,交易操作)作用于所述环境后,可使金融市场中的交易情况发生改变(例如,发生交易后,股价或成交量发生变化等),并获得第一奖惩反馈(例如,交易获得的收益)。由于在神经网络的训练过程中,根据当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈来训练神经网络,使得训练后的神经网络可基于历史训练周期来适应更复杂的环境,例如,可根据更多的历史收益情况来做出更准确的交易操作,以获得更优的价格和更低的交易成本,并在根据历史数据的回测中获得更大的收益。

图3示出根据本公开的实施例的神经网络训练方法的应用示意图。如图3所示,可使用随机动作输出作用于初始环境,并重复执行多次,获得第一个训练周期的环境,以开始训练神经网络。

在一种可能的实现方式中,根据当前训练周期的环境,可获得描述当前训练周期的环境的环境状态向量st,将环境的环境状态向量st输入神经网络,可获得当前训练周期的动作输出at、第一衡量输出和第二衡量输出。

在一种可能的实现方式中,可将动作输出at作用于当前训练周期的环境,可获得第一奖惩反馈rt和下一个训练周期的环境状态向量st+1。根据第一奖惩反馈rt以及历史训练周期的第一奖惩反馈,可获得第二奖惩反馈

在一种可能的实现方式中,根据第一奖惩反馈rt和第一衡量输出,可获得与第一衡量输出对应的第一模型损失l1。根据第二奖惩反馈和第二衡量输出,可获得与第二衡量输出对应的第二模型损失l2。根据第一模型损失l1和第二模型损失l2,可获得与动作输出对应的第三模型损失l3。

在一种可能的实现方式中,可根据第一模型损失l1,通过第一衡量输出对神经网络进行反向调节。可根据第二模型损失l2,通过第二衡量输出对神经网络进行反向调节。并可根据第二模型损失l3,通过动作输出at对神经网络进行反向调节。在满足训练条件时,可获得训练后的神经网络。训练后的神经网络可用于接收下一个训练周期的环境状态向量st+1。

在一种可能的实现方式中,所述环境可包括自动驾驶车辆所处的交通环境,通过当前训练周期的第一奖惩反馈rt,以及根据第一奖惩反馈rt以及历史训练周期的第一奖惩反馈确定的第二奖惩反馈可获得多个有效的奖惩反馈,可用于复杂的交通环境,在复杂交通环境中的输出更准确的动作输出。

在一种可能的实现方式中,所述环境为金融市场中的交易情况,通过当前训练周期的第一奖惩反馈rt,以及根据第一奖惩反馈rt以及历史训练周期的第一奖惩反馈确定的第二奖惩反馈可获得多个有效的奖惩反馈,可用于复杂的交易环境,在复杂的交易环境中输出更准确的动作输出,以根据更多的历史收益情况来做出更准确的交易操作,以获得更优的价格和更低的交易成本,并在根据历史数据的回测中获得更大的收益。

在一种可能的实现方式中,通过上述方法训练的神经网络可用于环境处理中,即,可将当前周期的环境状态向量输入训练后的神经网络中进行处理,获得当前周期的动作输出;并根据当前周期的环境状态向量以及所述当前周期的动作输出,确定当前周期的下一个周期的环境状态向量以及当前周期的第一奖惩反馈。使用训练后的神经网络对环境进行处理,使得训练后的神经网络可基于历史训练周期来适应更复杂的环境,获得更准确的动作输出,并获得更高第一奖惩反馈,即,更高的收益。

可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。

此外,本公开还提供了图像处理装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。

图4示出根据本公开的实施例的神经网络训练装置的框图,如图4所示,所述神经网络训练装置包括:

输入模块11,用于将当前训练周期的环境状态向量输入神经网络中进行处理,获得当前训练周期的动作输出和当前训练周期的衡量输出;

反馈确定模块12,用于根据所述当前训练周期的环境状态向量和所述当前训练周期的动作输出,确定当前训练周期的第一奖惩反馈;

模型损失确定模块13,用于根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的衡量输出,确定所述神经网络的模型损失,所述历史训练周期包括在所述当前训练周期之前的一个或多个训练周期;

调整模块14,用于根据所述模型损失,调整所述神经网络的网络参数值;

神经网络获得模块15,用于在所述神经网络满足训练条件时,获得训练后的神经网络。

图5示出根据本公开的实施例的神经网络训练装置的框图,如图5所示,所述装置还包括:

第二确定模块16,用于当所述当前训练周期为训练所述神经网络的第一个训练周期时,根据预设的初始环境状态向量和随机动作输出,获得所述当前训练周期的环境状态向量。

在一种可能的实现方式中,所述装置还包括:

第一确定模块17,用于根据所述当前训练周期的前一个训练周期的环境状态向量和所述前一个训练周期的动作输出,确定所述当前训练周期的环境状态向量。

在一种可能的实现方式中,所述当前周期的衡量输出包括当前训练周期的第一衡量输出和当前训练周期的第二衡量输出。

在一种可能的实现方式中,所述模型损失包括与所述第一衡量输出对应的第一模型损失、与所述第二衡量输出对应的第二模型损失以及与所述动作输出对应的第三模型损失。

在一种可能的实现方式中,所述模型损失确定模块13进一步用于:

根据所述当前训练周期的第一奖惩反馈和当前训练周期的第一衡量输出,确定所述第一模型损失;

根据所述当前训练周期的第一奖惩反馈、历史训练周期的第一奖惩反馈和当前训练周期的第二衡量输出,确定所述第二模型损失;

根据所述第一模型损失和所述第二模型损失,确定所述第三模型损失。

在一种可能的实现方式中,所述模型损失确定模块13进一步用于:

根据所述当前训练周期的第一奖惩反馈、预设的折现率和第一期望奖惩函数,确定第一累积折现奖惩反馈;

根据所述第一累积折现奖惩反馈和所述第一衡量输出,确定所述第一模型损失。

在一种可能的实现方式中,所述模型损失确定模块13进一步用于:

根据所述当前训练周期的第一奖惩反馈和历史训练周期的第一奖惩反馈,确定当前训练周期的第二奖惩反馈;

根据所述当前训练周期的第二奖惩反馈、预设的折现率以及第二期望奖惩函数,确定第二累积折现奖惩反馈;

根据所述第二累积折现奖惩反馈和所述第二衡量输出,确定所述第二模型损失。

在一种可能的实现方式中,所述模型损失确定模块13进一步用于:

根据历史训练周期的第一奖惩反馈和当前训练周期的第一奖惩反馈,确定奖惩变化向量;

根据所述奖惩变化向量,获得变化累积向量;

根据所述变化累积向量,获得零波动奖惩向量;

根据所述变化累积向量和所述零波动奖惩向量,确定所述第二奖惩反馈。

图6示出根据本公开的实施例的环境处理装置的框图,如图6所示,所述环境处理装置包括:

动作输出获得模块21,用于将当前周期的环境状态向量输入权利要求1至9中任意一项所述的神经网络中进行处理,获得当前周期的动作输出;

第三确定模块22,用于根据当前周期的环境状态向量以及所述当前周期的动作输出,确定当前周期的下一个周期的环境状态向量以及当前周期的第一奖惩反馈。

本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。

本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。

电子设备可以被提供为终端、服务器或其它形态的设备。

图7是根据的示例性实施例示出的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。

参照图7,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(i/o)的接口812,传感器组件814,以及通信组件816。

处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。

存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。

电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。

多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(lcd)和触摸面板(tp)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。

音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(mic),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。

i/o接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。

传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如cmos或ccd图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。

通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如wifi,2g或3g,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(nfc)模块,以促进短程通信。例如,在nfc模块可基于射频识别(rfid)技术,红外数据协会(irda)技术,超宽带(uwb)技术,蓝牙(bt)技术和其他技术来实现。

在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(asic)、数字信号处理器(dsp)、数字信号处理设备(dspd)、可编程逻辑器件(pld)、现场可编程门阵列(fpga)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。

在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。

图8是根据的示例性实施例示出的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图8,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。

电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(i/o)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如windowsservertm,macosxtm,unixtm,linuxtm,freebsdtm或类似。

在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。

本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。

计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。

这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。

用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如smalltalk、c++等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。

这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。

这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。

也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。

附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1