一种锂电池SOH估算和RUL预测的端到端神经网络建立方法与流程

文档序号:23347723发布日期:2020-12-18 16:50阅读:788来源:国知局
一种锂电池SOH估算和RUL预测的端到端神经网络建立方法与流程

本发明属于电池技术领域,涉及一种锂电池soh估算和rul预测的端到端神经网络建立方法。



背景技术:

直接测量容量或内部电阻是较为困难地,这也是健康状态(soh)估计和剩余使用寿命(rul)预测所要解决的的长期问题。为了间接地解决这个问题,在过去的十年中已经开发了许多基于模型和数据驱动的方法。基于模型的方法,例如增量容量分析、差分电压分析、等效电路模型、电化学模型和经验模型,利用理化机制分析电池的健康行为。但是,由于电池复杂的内部原理和不确定的工况,因此难以建立准确的模型来展示电池的动态特性。

数据驱动的方法,尤其是神经网络(nns),由于它们具有自适应性、灵活性且没有涉及到任何物理化学机制,因此近年来受到越来越多的关注。研究人员使用电压曲线特性通过数据处理的分组方法馈送到多项式神经网络,用于soh估计。后来的工作从一个电池的老化过程中提取了多个端子电压特征,然后将这些特征馈送到基于知识的先验神经网络以估算soh。为了获得嵌入在电池退化数据中的更多信息,一些研究使用多个变量而不是单个变量作为soh任务中神经网络的输入。例如,研究人员在使用一个单元的充电状态(soc)、电流和阻抗谱作为并行神经网络(rnn)的输入时,使用这种rnn并行估计内部电阻和容量。类似地,在另一个soh任务中,电压、电流和温度变化会馈送到rnn。为了提高基于神经网络的估计器的泛化能力,每个单元的多个变量之外的多个单元的数据用于训练更通用的框架,例如卷积神经网络(cnn)预测框架或长期的主动状态跟踪-短期记忆神经网络(ast-lstm神经网络)的预测框架。

作为soh的补充,rul通常与soh一起进行研究。最近的研究大多利用lstm神经网络来预测rul,因为此类神经网络具有出色的能力,能够处理时间序列中嵌入的长期和短期依赖性。lstm神经网络输入的类型和管理方式是这些方法之间的差异。对于输入类型,某些研究者利用容量特征,即经验模型分解(emd)的几个子层的值,而其他研究者使用记录的容量。对于输入策略,某些文章使用多个电池单体,有些使用一个电池单体。此外,如何应用lstm神经网络也是一个区别。elman神经网络和标准lstm神经网络(s-lstm神经网络)的混合神经网络用于预测容量的高频率和低频,而一些研究仅将s-lstm神经网络与不同的辅助技术一起使用,例如,dropout技术和adam算法。除了s-lstm神经网络,还开发了一些变体,例如双向lstm神经网络和ast-lstm神经网络,以用来预测rul,并且表现出比s-lstm神经网络更好的性能。

尽管上述方法已显示出了良好的结果,但它们在实际健康预测中的灵活应用需要通过以下方面的问题进一步验证。首先,尽管使用诸如emd之类的特征有助于soh或rul任务,但这种特征提取会花费更多时间选择适合输入预测框架的特征,甚至会影响基于神经网络框架的自动建立。其次,大多数研究都集中于应用特定的神经网络来提高估计或预测的准确性,但忽略了电池数据本身对这种神经网络的影响。第三,手动调整神经网络使得发布的结果难以复制和扩展,甚至对此类方法的原始研究也比科学更具有艺术性。

这项研究旨在设计一个端到端的预测框架,以解决上述问题。我们的贡献分别总结如下:首先,提出了ast-lstm神经网络和一维cnn的混合体,称为cnn-astlstm神经网络,以分层方式捕获影响电池退化的多个变量之间的特征,并主动学习嵌入在这些特征中的长期-短期依赖性。其次,利用kolmogorov-smirnov(ks)测试,将超参数的先验分布指定给soh或rul任务中的流行神经网络,以评估电池数据对此类神经网络建模的影响。第三,基于上述超参数的先验分布,提出了一种贝叶斯优化算法来建立损失函数的概率替代模型。这种替代用于自动选择最有前途的超参数,以评估真实损失函数。



技术实现要素:

有鉴于此,本发明的目的在于提供一种锂电池soh估算和rul预测的端到端神经网络建立方法。

为达到上述目的,本发明提供如下技术方案:

一种锂电池soh估算和rul预测的端到端神经网络建立方法,该方法包括以下步骤:

s1:设计cnn-astlstm神经网络;

s2:cnn-astlstm神经网络的超参数优化;

s3:cnn-astlstm神经网络的应用。

可选的,所述s1具体为:

分别为第n个一维卷积层的输入和特征图,n∈{1,2,...n};上标w和c分别表示数据宽度和通道;u1是输入样本,其中数据宽度和通道分别代表样本长度和样本类型;第个滤波器的输出,即第n个卷积层的特征图,通过以下方式获得:

其中σ,和s分别代表位置坐标、激活函数、局部邻域和步幅大小;的范围为经过最大池化后,第n+1层卷积的输入表示为:

其中q和d分别是下采样输出、位置坐标、池化核和步幅大小;

在每个卷积层中,通过在局部接收场内将空间和通道信息融合在一起,学习滤波器来表达有益的组合;通过堆叠一系列交织在一起的非线性和下采样的卷积层,一维cnn能够捕获影响电池退化的多个变量之间的分层模式;然后,使用ast-lstm神经网络来学习这些模式中嵌入的长期短期依存关系;

对于第l个ast-lstm层,l∈1,2,...l,令在时间t的输入,m是神经元的数量,并且是该块在时间t-1的输出;|·|表示维度运算符;ul+1,t=hl,t;其中遗忘门输出和候选门输出给出为:

fl,t=σ(kl,fu·ul,t+kl,fh·hl,t-1+bl,f)(3)

zl,t=g(kl,zu·ul,t+kl,zh·hl,t-1+bl,z)(4)

其中分别是遗忘门和候选门中的输入权重,递归权重和偏置权重;逻辑sigmoidσ(·)和双曲正切tanh(·)是遗忘门和候选门的激活函数;融合状态输入和状态输出表示为:

il,t=(1-fl,t)⊙σ(cl,t-1⊙pl,i)(5)

cl,t=cl,t-1⊙fl,t+il,t⊙zl,t(6)

其中,分别代表时间t-1的细胞状态和窥视孔对旧细胞状态的权重;符号⊙表示逐点乘法;输出门输出和块输出给出为:

ol,t=σ(kl,ou·ul,t+kl,oh·hl,t-1+pl,o⊙cl,t+bl,o)(7)

hl,t=ol,t⊙g(cl,t)(8)

其中分别是输出门中的输入权重,递归权重和偏置权重;在新的细胞状态下,窥孔的权重表示为最后,cnn-astlstm神经网络的输出写为:

yl+1,t=kl+1hl,t(9)

其中是全连接的权重。

可选的,所述s2具体为:

利用cnn-astlstm神经网络进行soh估计或rul预测的最终目标是使用这种网络查找非线性函数该函数使得估计或预测的误差最小;电池样本u来自自然分布的将该目标重新构造为使用学习算法将有限的电池数据集映射到使预期损失最小的函数中;实际的学习算法表示为通过优化训练准则产生高维空间θ中的一组参数θ,即超参数;这将超参数优化问题描述为:

其中是损失的期望值,即泛化误差;对未知自然分布的期望很难直接评估;为解决这个问题,在神经网络的训练过程中,考虑k折交叉验证,将等式(10)重新定义为:

其中分别表示由cnn超参数θc和ast-lstm神经网络超参数θa指定的学习算法;通过第i个交叉验证的训练数据和有效数据分别表示为通过式(11),上述问题被重新公式化为树结构化空间θ=θ(1)∪...∪θ(k)∪{θr}的单个组合式分层超参数优化问题,其中θr是每个子空间θ(i)的根级超参数;

方程(11)方式求解,包括基于顺序模型的优化,高斯过程优化和贝叶斯优化;

选择预期改进ei准则来近似使用成本较低的的代理得出的等式(11);ei是在cnn-astlstm神经网络下产生的期望,即将负阈值e*(θc,a)超过负值,该阈值如下所示:

其中表示关于损失的超参数配置θc和θa;与高斯优化直接建模不同,对进行建模;将建模为两个密度估计之一,条件是e是大于还是小于给定阈值e*

其中表示通过使用观测值形成的密度估计,相应的损失e(θc,a)小于e*,而g(·)是从其余观测中获悉的密度估计,其对应的损耗大于或等于e*;选择e*作为γ分位数,ei与闭式表达式成正比,即如下:

创建一维parzen估计器以对和g(·)的密度建模,其公式为:

其中kg是高斯核,h>0是称为带宽的平滑参数;

对于先前的分布使用ks检验获得超参数的先验分布;有序观测值定义为:

其中i[-∞,e](ej)是指标函数,如果ej≤e则等于1,否则等于0;给定累积分布函数f(e)的ks统计量写为:

其中是距离集的最大值;使用kolmogorov分布的临界值构造ks测试;如果则在水平α处拒绝原假设,其中kα从下式中获取:

p(k≤kα)=1-α(21)。

可选的,所述s3具体为:

应用cnn-astlstm神经网络训练soh估计模型的问题描述为:

其中sw和co是第i个充放电轮次中电压v、温度t、电流i和采样时间t的历史采样值,第i个充放电轮次的历史容量,滑动窗口的长度和初始容量;soh的在线估计表示为:

其中是第jj个充放电轮次中观察到的电压、温度、电流和采样时间的样本;

假设寿命终止eol为c0×70%,则实际和预测的rul定义为:

rul=qeol-qs(24)

其中qeol和分别是eol实际和预测的充放电轮次,qs是预测开始时的充放电轮次;通过应用cnn-astlstm神经网络训练rul预测模型来获得

其中和pw分别表示开始预测充放电轮次的历史容量和预测窗口的长度;的在线预测描述为:

其中分别是预测和观察到的容量;将sw和pw分别指定为cnnastlstm神经网络第一层中的卷积核大小和最后一层中的神经元数。

本发明的有益效果在于:

在锂电池soh监测和rul预测领域,解决了如何提取锂电池退化数据的分层特征并优化神经网络的超参数问题。在这样的框架中,设计了一种混合神经网络,即一维卷积神经网络和主动状态跟踪-长短期记忆神经网络的混合,以捕获影响电池退化的多个变量之间的分层特征,以及这些功能中嵌入的时间依赖性。此外,通过kolmogorov-smirnov检验建立了soh或rul任务中流行的神经网络所指定的超参数的先验分布。这也被认为是调查退化数据对此类神经网络建模的影响。基于这种替代,提出了一种贝叶斯优化算法来建立概率替代模型,以自动选择超参数顺序演化过程中最有前途的配置。

因此,本方法应用在soh监测和rul预测任务中可以获得较好的效果。

本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。

附图说明

为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:

图1为本发明原理图。

具体实施方式

以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。

其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。

本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。

1)cnn-astlstm神经网络的设计

分别为第n个(n∈{1,2,...n})一维卷积层的输入和特征图。上标w和c分别表示数据宽度和通道。特别地,u1是输入样本,其中数据宽度和通道分别代表样本长度和样本类型(容量及其对应的电压、电流、温度、采样时间)。第个滤波器的输出,即第n个卷积层的特征图,可以通过以下方式获得:

其中σ,和s分别代表位置坐标,激活函数,局部邻域和步幅大小。注意,的范围为经过最大池化后,第n+1层卷积的输入可以表示为:

其中q和d分别是下采样输出,位置坐标,池化核和步幅大小。

在每个卷积层中,通过在局部接收场内将空间和通道信息融合在一起,学习了滤波器来表达有益的组合。通过堆叠一系列交织在一起的非线性和下采样的卷积层,一维cnn能够捕获影响电池退化的多个变量之间的分层模式。然后,使用ast-lstm神经网络(如图1所示)来学习这些模式中嵌入的长期短期依存关系。

对于第l个(l∈1,2,...l)ast-lstm层,令在时间t的输入,m是神经元的数量,并且是该块在时间t-1的输出。注意|·|表示维度运算符。显然地,ul+1,t=hl,t。其中遗忘门输出和候选门输出给出为:

fl,t=σ(kl,fu·ul,t+kl,fh·hl,t-1+bl,f)(3)

zl,t=g(kl,zu·ul,t+kl,zh·hl,t-1+bl,z)(4)

其中分别是遗忘门和候选门中的输入权重,递归权重和偏置权重。逻辑sigmoidσ(·)和双曲正切tanh(·)是遗忘门和候选门的激活函数。融合状态输入和状态输出表示为:

il,t=(1-fl,t)⊙σ(cl,t-1⊙pl,i)(5)

cl,t=cl,t-1⊙fl,t+il,t⊙zl,t(6)

其中,分别代表时间t-1的细胞状态和窥视孔对旧细胞状态的权重。符号⊙表示逐点乘法。输出门输出和块输出给出为:

ol,t=σ(kl,ou·ul,t+kl,oh·hl,t-1+pl,o⊙cl,t+bl,o)(7)

hl,t=ol,t⊙g(cl,t)(8)

其中分别是输出门中的输入权重,递归权重和偏置权重。在新的细胞状态下,窥孔的权重表示为最后,cnn-astlstm神经网络的输出写为:

yl+1,t=kl+1hl,t(9)

其中是全连接的权重。

2)cnn-astlstm神经网络的超参数优化

利用cnn-astlstm神经网络进行soh估计或rul预测的最终目标是使用这种网络查找非线性函数该函数使得估计或预测的误差最小。电池样本u来自自然分布的有些研究者指出,可以将该目标重新构造为使用学习算法将有限的电池数据集映射到使预期损失最小的函数中。实际的学习算法表示为因为它通过优化训练准则产生高维空间θ中的一组参数θ(称为超参数)。这将超参数优化问题描述为:

其中是损失的期望值(也称为泛化误差)。但是,对未知自然分布的期望很难直接评估。为了解决这个问题,在神经网络的训练过程中,考虑k折交叉验证,将等式(10)重新定义为:

其中分别表示由cnn超参数θc和ast-lstm神经网络超参数θa指定的学习算法。通过第i个交叉验证的训练数据和有效数据分别表示为通过式(11),上述问题被重新公式化为树结构化空间θ=θ(1)∪…∪θ(k)∪{θr}的单个组合式分层超参数优化问题,其中θr是每个子空间θ(i)的根级超参数。

原则上,方程(11)可以通过多种方式求解,例如,基于顺序模型的优化,高斯过程优化和贝叶斯优化。具体来说,我们选择了预期改进(ei)准则来近似使用成本较低的的代理得出的等式(11)。ei是在cnn-astlstm神经网络下产生的期望,即将负阈值e*(θc,a)超过负值,该阈值如下所示:

其中表示关于损失的超参数配置θc和θa。与高斯优化直接建模不同,我们对进行建模。我们将建模为两个密度估计之一,条件是e是大于还是小于给定阈值e*

其中表示通过使用观测值形成的密度估计,因此相应的损失e(θc,a)小于e*,而g(·)是从其余观测中获悉的密度估计,其对应的损耗大于或等于e*。注意,选择了e*作为γ分位数,因此有研究者提出ei与闭式表达式成正比,即如下:

创建一维parzen估计器以对和g(·)的密度建模,其公式为:

其中kg是高斯核,h>0是称为带宽的平滑参数。

对于先前的分布我们使用ks检验获得超参数的先验分布。有序观测值定义为:

其中i[-∞,e](ej)是指标函数,如果ej≤e则等于1,否则等于0。给定累积分布函数f(e)的ks统计量写为:

其中是距离集的最大值。可以使用kolmogorov分布的临界值构造ks测试。如果则在水平α处拒绝原假设,其中kα可从下式中获取:

p(k≤kα)=1-α.(21)

3)cnn-astlstm神经网络的应用

应用cnn-astlstm神经网络训练soh估计模型的问题可以描述为:

其中sw和co是第i个充放电轮次中电压(v),温度(t),电流(i)和采样时间(t)的历史采样值,第i个充放电轮次的历史容量,滑动窗口的长度和初始容量。soh的在线估计可表示为:

其中是第jj个充放电轮次中观察到的电压,温度,电流和采样时间的样本。

假设寿命终止(eol)为c0×70%,则实际和预测的rul定义为:

rul=qeol-qs(24)

其中qeol和分别是eol实际和预测的充放电轮次,qs是预测开始时的充放电轮次。可以通过应用cnn-astlstm神经网络训练rul预测模型来获得

其中和pw分别表示开始预测充放电轮次的历史容量和预测窗口的长度。的在线预测描述为:

其中分别是预测和观察到的容量。请注意,将sw和pw分别指定为cnnastlstm神经网络第一层中的卷积核大小和最后一层中的神经元数。

最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1