热管理系统及基于神经网络的热管理方法和装置与流程

文档序号:24175741发布日期:2021-03-09 08:33阅读:197来源:国知局
热管理系统及基于神经网络的热管理方法和装置与流程

1.本发明涉及车辆技术领域,尤其涉及一种热管理系统及基于神经网络的热管理方法和装置。


背景技术:

2.车辆在运行过程中会产生大量的热,随着工作环境和工况的变化,产生的热量也会发生相应的变化,为了保证车辆的最佳运行状态,通常采用冷却风扇强制冷却的方式将热量散发到环境中,从而使各装置保持在正常温度的工作范围内。但是相关技术存在的问题是,控制系统反应速度慢,中心控制的误差会导致整个系统的信息延迟甚至崩溃,容易导致车辆升温过快,降低发动机及其附件的使用寿命。


技术实现要素:

3.本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
4.为此,本发明的第一个目的在于提出一种基于神经网络的发动机的热管理方法,以实现根据冷却液的预测温度进行调节,提高热管理系统的稳定性。
5.本发明的第二个目的在于提出一种基于神经网络的发动机的热管理装置。
6.本发明的第三个目的在于提出一种热管理系统。
7.本发明的第四个目的在于提出一种计算机可读存储介质。
8.为达上述目的,本发明第一方面实施例提出了一种基于神经网络的发动机的热管理方法,包括以下步骤:获取车辆行驶的工况参数,并输入目标神经网络模型;通过所述目标神经网络模型,获取发动机中冷却液的预测温度;根据所述冷却液的预测温度,控制所述发动机中热管理系统对冷却液进行温度调节。
9.根据本发明的一个实施例,在所述获取车辆行驶的工况参数,并输入神经网络模型之前,还包括:建立初始神经网络模型,将样本工况参数和每个样本工况参数的测试结果,输入到所述初始神经网络模型中进行训练,直到训练后的神经网络模型的输出误差小于设定误差值,则得到所述目标神经网络模型。
10.根据本发明的一个实施例,所述将样本工况参数和每个样本工况参数的测试结果,输入到所述初始神经网络模型中进行训练,包括:获取所述目标神经网络模型的预测结果;将所述预测结果和测试结果进行比较,以根据所述比较结果对所述目标神经网络模型中隐含层的权重值进行修正。
11.根据本发明的一个实施例,所述根据所述冷却液的预测温度,控制所述发动机中热管理系统对冷却液进行温度调节,包括:针对每个换热器,根据所述目标冷却液温度,控制所述换热器的冷却液流量。
12.根据本发明实施例的热管理方法,能够通过目标神经网络模型准确匹配发动机运行工况并选择最佳冷却液温度,克服了传统热管理系统的温度控制不精确的问题;同时,通过对多个换热器分别控制,避免了集成控制中心瘫痪导致整个系统崩溃的弊端,有效保证
了发动机的正常运行。
13.为达上述目的,本发明第二方面实施例提出了一种基于神经网络的发动机的热管理装置,包括:获取模块,用于获取车辆行驶的工况参数,并输入目标神经网络模型;神经网络模型,用于通过所述目标神经网络模型,获取发动机中冷却液的预测温度;控制模块,用于根据所述冷却液的预测温度,控制所述发动机中热管理系统对冷却液进行温度调节。
14.根据本发明的一个实施例,建立初始神经网络模型,将样本工况参数和每个样本工况参数的测试结果,输入到所述初始神经网络模型中进行训练,直到训练后的神经网络模型的输出误差小于设定误差值,则得到所述目标神经网络模型。
15.根据本发明的一个实施例,所述神经网络模型,还用于:获取所述目标神经网络模型的预测结果;将所述预测结果和测试结果进行比较,以根据所述比较结果对所述目标神经网络模型中隐含层的权重值进行修正。
16.根据本发明的一个实施例,所述控制模块,还用于:针对每个换热器,根据所述目标冷却液温度,控制所述换热器的冷却液流量。
17.为达上述目的,本发明第三方面实施例提出了一种发动机的热管理系统,包括所述的基于神经网络的发动机的热管理装置。
18.为了实现上述目的,本发明第四方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述的基于神经网络的发动机的热管方法。
19.本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
20.本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
21.图1为本发明实施例的基于神经网络的发动机的热管理方法的流程图;
22.图2为本发明一个实施例的基于神经网络的发动机的热管理方法的流程图;
23.图3为本发明实施例的基于神经网络的发动机的热管理装置的方框示意图;
24.图4为本发明实施例的发动机的热管理系统的方框示意图。
具体实施方式
25.下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
26.下面参考附图描述本发明实施例的热管理系统及基于神经网络的热管理方法和装置。
27.图1为本发明实施例的基于神经网络的发动机的热管理方法的流程图。如图1所示,本发明实施例的基于神经网络的发动机的热管理方法,包括以下步骤:
28.s101:获取车辆行驶的工况参数,并输入目标神经网络模型。
29.需要说明的是,在获取车辆行驶的工况参数,并输入目标神经网络模型之前,还包
括:
30.建立初始神经网络模型,将样本工况参数和每个样本工况参数的测试结果,输入到初始神经网络模型中进行训练,直到训练后的神经网络模型输出误差小于设定误差值,则得到目标神经网络模型。
31.具体地,首先,选择车速、车外部风速、发动机内至少一处冷却液温度,至少一种换热器温度作为变量,其中,发动机内冷却液温度可选择5处,换热器可为三种,例如暖风换热器、变速器换热器和散热器换热器。因此,变量个数为10,并对10中变量进行正交实验。同时,测量不同工况下的汽车功率和扭矩以及发动机热效率作为变量参数,其中,不同工况可包括:起步、加速、等速、减速、转弯、上下坡、停车、空载、满载和超载。将变量与变量参数所用的数据进行归一化处理,在归一化的时延数据中选定网络结构和参数,建立初始神经网络模型。
32.应当理解的是,归一化处理是为了加快训练神经网络模型的收敛性,加快神经网络模型学习速度,同时也是因为神经网络模型中的节点变换函数的取值在0-1之间,归一化数据处理是对原始数据的线性变换,最终将原始数据映射到0-1之间,其中,转换函数为式中x
max
、x
min
为输入变量的最大值和最小值,x为输入变量,x

为归一化后的值。
33.然后,将作为输入数据的变量输入初始神经网络模型的输入层,由输入层传递给隐含层。隐含层通过权值及激励函数进行处理,并将处理后的结果传递给输出层。
34.进一步地,样本工况参数和每个样本工况参数的测试结果,输入到初始神经网络模型中进行训练,如图2所示,包括:
35.s201:获取目标神经网络模型的预测结果。
36.s202:将预测结果和测试结果进行比较,已根据比较结果对目标神经网络模型中隐含层的权重值进行修正。
37.其中,神经网络模型的权值参数包括网络权值、阈值的初始值和学习速率,为了保证每个神经元的权值能够在激活函数变化最大处进行调节,可由matlab矩阵随机函数在(-1,1)之间指定网络权值、阈值的初始值。为了保证系统的稳定性,在阈值下限选取学习速率,并同时给定计算精度和最大学习次数。
38.具体地,设置输入层的组数n,利用计算每一层每一单元的值,其中,a
i
是第i层每个单元的值,ω
i
是第i层的权值,f为激活函数,为下一层神经元阈值。在计算的过程中,每个节点的输出值是根据上层所有节点的输出值、当前节点与上层所有节点的权值和当前节点的阈值进行加权,再作为激活函数的因变量,对初始神经网络模型进行训练。
39.将前述给出的作为输入数据的变量,输入至输入层并由输入层传递给隐含层,隐含层通过权值及激励函数进行处理,并将处理后到的结果传递给输出层,输出层的输出结果即为预测结果,将预测结果与正交试验的正确结果进行比较,计算得到误差。
40.进一步,计算误差函数输出层个神经元的偏导数δ
t
,其中,y
j
为输出
层的预测结果,t
j
为正交试验的正确结果,利用偏导数结果计算出修正权值,直至全局误差小于阈值或者学习册数达到设定的最大次数,即完成本次训练。
41.应当理解的是,在训练结束后,还需要对神经网络模型进行检测。用测试数据对训练后的神经网络模型进行检测,以检验网络的拟合和预测能力。若检测结果误差小于设定标准值,则神经网络模型可作为目标神经网络模型进行冷却液的温度预测,如果检测结果误差大于设定标准值,则需要重新建立初始神经网络模型。
42.s102:通过目标神经网络模型,获取发动机中冷却液的预测温度。
43.具体地,可仿照最小二乘法建立目标函数,使预测性能与目标性能之间的均误差和最小,例如其中,s为均方误差,ω
t
为权重,x
t
为实际值,为预测值。
44.为了提高神经网络模型的预测精度,对汽车功率和扭矩以及发动机热效率可设置不同的权重,把预测精度高的权重向阈值上限进行调整,预测精度低的权重向阈值下限调整。
45.应当理解的是,在本发明实施例中,目标神经网络模型具有三层,分别为输入层、隐含层和输出层,其中,输入层的神经元与样本工况中的变量一一对应,即,输入神经元为车速、外部风速、三种换热器温度、五个发动机内部温度;相应的,输出层的神经元与变量参数一一对应,即,输出神经元为不同工况下的汽车功率、扭矩和发动机热效率。隐含层的神经元通过经验公式推算和试凑调整决定。其中,激活函数可为s型激活函数,输出层可为线性变换函数。目标神经网络模型采用误差反传学习算法,并梯度搜索技术,满足实际输出与期望输出的均方误差最小的目标。
46.在利用样本工况参数进行训练过程中,可将样本工况参数随机分为两部分,一部分为训练样本库,另一部分为测试样本库,按照e/100=
×
e100%(优先为e/f=85/15
×
100%)的比例分组,在选取测试样本集时,应当尽量将测试样本集的数据处于训练样本中试验数据的最大值和最小值之间,使与训练预测是内插值,预测结果更准确。
47.s103:根据冷却液的预测温度,控制发动机中热管理系统对冷却液进行温度调节。
48.需要说明的是,冷却液的预测温度为换热器内的冷却液的预测温度,即,通过控制换热器内的冷却液温度达到预测温度,以实现换热器利用冷却液对发动机进行换热,从而确保发动机稳定运行。
49.具体地,根据冷却液的预测温度,控制发动机中热管理系统对冷却液进行温度调节,包括:针对每个换热器,根据目标冷却液温度,控制换热器的冷却液流量。
50.需要说明的是,在本发明实施例的发动机热管理系统中,可设置有至少三种换热器,包括暖风换热器、变速器换热器和散热器换热器,可对每个换热器分别设置控制装置以对流经其的冷却液流量进行控制,从而实现对冷却液温度的调节,有效避免了集成控制中心瘫痪导致整个系统崩溃的弊端,即,在任意控制装置故障时,能够保证其他换热器的换热量,从而保证发动机的正常运行。
51.还需要说明的是,在本发明实施例中,发动机的热管理系统包括冷车循环和正常
循环,冷车循环即冷车着车后,冷却液经过水泵、节温器在发动机内循环,节温器会根据发动机运行状态自动开启或关闭。发动机的热管理系统还包括电子水泵,用于驱动冷却液循环的无极调速电子水泵。
52.具体而言,在经过目标神经网络模型获取到预测温度之后,可通过对电子水泵和节温器进行控制以对换热器的冷却液流量进行调节,例如当散热器换热器的当前温度高于或等于预测温度时,意味着进入发动机的冷却液温度高于要求温度,发动机冷却不足从而无法保证发动机处于最佳运行状态,可通过控制电子水泵和/或节温器控制增大冷却液流量;当散热器换热器的当前温度低于预测温度时,意味着进入发动机的冷却液温度低于要求温度,这又会导致发动机过冷从而影响发动机的运行,可通过控制电子水泵和/或节温器控制减少冷液位流量。电子水泵和节温器通过读取散热器、暖风以及变速器这三个热交换器的温度来控制流量,同时这三个交换器自带的执行元件也可以调节流量开度并与水泵流量匹配。例如当暖风换热器的当前温度高于或等于预测温度时,暖风换热器可增大阀门开度帮助冷却液快速循环,从而获得更低温的冷却液进入发动机,帮助发动机的散热。当暖风换热器的当前温度低于预测温度时,暖风换热器可减小阀门开度减小冷却液流速,从而保证发动机的温度。当变速器换热器的当前温度高于或等于预测温度时,变速器换热器可增大阀门开度帮助冷却液快速循环,从而获得更低温的冷却液进入变速器,帮助变速器的散热。当变速器换热器的当前温度低于预测温度时,变速器换热器可减小阀门开度减小冷却液流速,从而保证变速器的合适工作温度。采用三个热交换器分别控制冷却液流量的大小,可避免其中一个温感元件或执行元件失效,导致发动机冷却不足或者过热,继而导致发动机运行不良甚至发生故障。
53.综上所述,本发明实施例的热管理方法,能够通过目标神经网络模型准确匹配发动机运行工况并选择最佳冷却液温度,克服了传统热管理系统的温度控制不精确的问题;同时,通过对多个换热器分别控制,避免了集成控制中心瘫痪导致整个系统崩溃的弊端,有效保证了发动机的正常运行。
54.为了实现上述实施例,本发明还提出一种基于神经网络的发动机的热管理装置。
55.图3为本发明实施例的基于神经网络的发动机的热管理装置的方框示意图。如图3所示,该基于神经网络的发动机的热管理装置100,包括:获取模块10、神经网络模型20和控制模块30。
56.其中,获取模块10用于获取车辆行驶的工况参数,并输入目标神经网络模型;神经网络模型20用于通过所述目标神经网络模型,获取发动机中冷却液的预测温度;控制模块30用于根据所述冷却液的预测温度,控制所述发动机中热管理系统对冷却液进行温度调节。
57.进一步地,还包括:建立初始神经网络模型,将样本工况参数和每个样本工况参数的测试结果,输入到所述初始神经网络模型中进行训练,直到训练后的神经网络模型的输出误差小于设定误差值,则得到所述目标神经网络模型。
58.进一步地,所述神经网络模型20,还用于:获取所述目标神经网络模型的预测结果;将所述预测结果和测试结果进行比较,以根据所述比较结果对所述目标神经网络模型中隐含层的权重值进行修正。
59.进一步地,控制模块30,还用于:针对每个换热器,根据所述目标冷却液温度,控制
所述换热器的冷却液流量。
60.需要说明的是,前述对基于神经网络的发动机的热管理方法实施例的解释说明也适用于该实施例的基于神经网络的发动机的热管理装置,此处不再赘述。
61.为了实现上述实施例,本发明还提出一种发动机的热管理系统,如图4所示,发动机的热管理系统200包括前述的基于神经网络的发动机的热管理装置100。
62.为了实现上述实施例,本发明还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如前述的基于神经网络的发动机的热管方法。
63.在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
64.此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
65.流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
66.在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
67.应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离
散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
68.本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
69.此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
70.上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1