基于路元拆分和深度学习模型LSTM的路面使用性能预测方法

文档序号:26265431发布日期:2021-08-13 19:17阅读:165来源:国知局
基于路元拆分和深度学习模型LSTM的路面使用性能预测方法
本发明属于高速公路沥青路面使用性能预测
技术领域
,涉及一种路元拆分后基于深度学习模型lstm的路面使用性预测方法。
背景技术
:传统的路面使用性能回归预测模型因为简单,易应用于路面管理系统而被广泛采用。但是传统的回归模型存在一些缺点,比如回归模型一般只能考虑到较少的主要影响因素,难以较全面的将众多的影响因素纳入到模型之中。此外,回归方程形式的确定需要大量经验,且不可避免地与实际情况存在一定偏差。近年来以神经网络模型为代表的机器学习算法引起了研究者的重视。神经网络模型受生物神经网络功能启发设计而成,通过学习规则或自组织等过程建立复杂的非线性变换关系将模型的输入和转化为输出实现预测。神经网络模型通过“学习”和“训练”历史数据,可记忆对象在空间、时间上复杂的关系,极大地提高路面性能的预测精度,因此成为近年来路面性能预测领域的研究热点。深度学习引起了广泛的关注,并成功地应用于语言处理、图像分析等诸多领域。但是深度学习模型还未应用于路面使用性能的预测。与传统的浅层神经网络相比,深度学习模型在神经元之间具有更复杂的连接,并且可以更有效地理解复杂问题。卷积神经网络(cnn)和循环神经网络(rnn)是两种最典型的深度学习模型。卷积神经网络一般多用于图像处理,而rnn模型则能进行基于序列数据的学习。长短期记忆网络(longshort-termmemory,lstm)模型是rnn模型的一种特殊形式。路面性能随着时间的推移而衰减,是一种时间序列数据。因此,专门针对处理序列数据设计的lstm模型非常适用于预测路面使用性能。技术实现要素:针对传统的线性回归及非线性回归形式路面使用性能预测模型的缺点,如影响因素考虑较少,无法全面的将影响因素纳入考虑范围;方程形式的确定需要大量经验,不可避免的与实际情况存在偏差;模型的预测精度低,预测效果较差。为解决路面使用性能预测模型存在的缺点和问题,提出了一种基于路元拆分和深度学习模型lstm的路面使用性能预测模型,提高路面使用性能预测的准确性。本发明为解决上述存在的问题采用以下技术方案:本发明提供一种基于路元拆分和深度学习模型lstm的路面使用性能预测方法,包括以下步骤:步骤1,采集多年路面使用性能检测数据及路面使用性能影响因素数据的基础上,根据收集到的这些数据将整体路网划分成一个一个的道路单元(简称路元)。步骤2,确定神经网络的输入输出变量,将路面使用性能的影响因素作为模型的输入,尽可能包含更多的影响因素变量。步骤3,需要对原始数据进行预处理,对连续变量进行归一化,确保所有连续变量具有相似的值域,进而提高模型的收敛速度和预测精度。步骤4,进行lstm网络结构设计,网络结构时,需要确定lstm单元的σ层和tanh层的隐藏元(hiddenunits)数。本发明对不同隐藏元数的结构进行了试验,选出了最佳结构。以验证集损失值最小的模型作为最优模型。步骤5,使用基于python的深度学习库keras来建立lstm模型。作为本发明的进一步技术方案,步骤1具体为:采集多年路面使用性能检测数据及路面使用性能影响因素数据的基础上,根据收集到的这些数据将整体路网划分成一个一个的道路单元(简称路元)。采用动态的路元划分方式,如图1所示,路元的划分原则是将具有相同属性(相同路线、交通荷载、路面结构、使用性能、养护历史等)的道路段落划分为一个路元。路元具体划分流程为:首先基于路面使用性能影响因素数据中的交通量数据对整体路网进行第一次划分,然后按路面使用性能检测数据进行第二次划分,再以路面使用性能影响因素数据中的桥梁、隧道的桩号进行第三次划分,最后根据历史养护信息进行第四次划分,划分后得到的路元即可与收集到的各类信息一一对应。作为本发明的进一步技术方案,步骤2具体为:确定神经网络的输入输出变量,将路面使用性能的影响因素作为模型的输入,尽可能包含更多的影响因素变量。具体方法为:基于当年即前两年的性能指标pi值pi(t)、pi(t-1)、pi(t-2)以及影响路面性能劣化过程的其他变量来预测下一年的pi值pi(t+1)。作为本发明的进一步技术方案步骤3具体为:对原始数据进行预处理,对连续变量进行归一化,确保所有连续变量具有相似的值域,进而提高模型的收敛速度和预测精度,具体为:在模型训练前还需要对原始数据进行预处理。对连续变量进行归一化,使所有连续变量具有相似的值域。归一化数据可以提高模型的收敛速度和预测精度。使用min-max归一化方法,为标准化后的数据,x为原始数据,xmax为连续变量的最大值,xmin为连续变量最小值。然后,将所有分类变量都转换为多个布尔变量。例如,变量“路面结构”应转换为3个布尔变量:路面、桥面和隧道。每个布尔变量的取值都应设置为1(表示真)或0(表示假)。因此,所有分类变量都有k个维度,其中k是分类变量拥有的类别数。在模型预测完成之后,需要将模型的输出值进行比例反转,因为模型的输入经过了归一化。反转之后的预测值就可以与实际值直接进行比较了。作为本发明的进一步技术方案步骤4具体为:进行lstm网络结构设计,网络结构时,需要确定lstm单元的σ层和tanh层的隐藏元(hiddenunits)数。本发明对不同隐藏元数的结构进行了试验,选出了最佳结构。以验证集损失值最小的模型作为最优模型。具体为:lstm网络的结构通过试验法进行设计。在设计lstm网络结构时,需要确定lstm单元的σ层和tanh层的隐藏元(hiddenunits)数。本发明对不同隐藏元数的结构进行了试验,选出了最佳结构。以验证集损失值最小的模型作为最优模型。隐藏元数不宜太大,因为隐藏元太多意味模型参数过多,可能会导致模型过度拟合的风险,降低模型的效率。作为本发明的进一步技术方案步骤5具体为:使用基于python的深度学习库keras来建立lstm模型,具体方法步骤为:分割数据集整个数据集被随机分成一个训练集(60%)、一个验证集(20%)和一个测试集(20%)。训练集用来训练模型,验证集用来优化模型参数,选择最佳模型,测试集用来对模型进行测试。初始化参数lstm模型的权重和偏置的初始化均采用随机初始化的方式,其中状态值h的初始值设置为0。初始化参数过拟合指的是训练得到的模型太复杂,过度学习了训练数据中存在的干扰噪声,而忽略掉数据本身的特性。具体表现为模型在训练集上表现很好,但是在验证集和测试集上的预测结果则较差。正则化和dropout是两种最常用的防止模型过拟合的方法。dropout可以在训练时随机忽略一部分神经元的工作,使其在本次训练过程中不更新权值,以此来增强网络的健壮性。正则化的思想则是在损失函数中加入关于模型复杂程度的指标,而神经网络模型复杂度由权重决定。经过正则化,可以限制权重的大小,防止模型学习到训练数据中的干扰噪声。本发明采用dropout的方法防止模型的过拟合。参数优化传统的训练方法是在遍历所有数据后对参数进行优化。该方法计算量大,训练速度慢。另一种方法是更新每个数据的参数,这种方法收敛性差。mini-batch是这两种方法的折衷方案,它将数据分为多个批次(batch),并按批次更新参数。本发明采用mini-batch方法作为训练方法。在本发明中,batch值按经验设置为32。本发明采用adam(adaptivemomentestimation)算法对参数进行优化,使用keras的modelcheckpoint存储具有最小验证集损失值的最优模型的参数,以便对测试集进行预测。模型的损失值用均方误差表示。附图说明图1为路元划分原则示意;图2为本发明基于路元拆分和深度学习模型lstm的路面使用性能预测的输入输出结构;图3为本发明基于深度学习模型lstm的pci模型训练结果,其中(a)为训练集和验证集损失值,(b)为真实值与预测值的相关性,(c)为绝对残差与真实值,(d)为残差与真实值;图4为本发明基于深度学习模型lstm的rqi模型训练结果,其中(a)为训练集和验证集损失值,(b)为真实值与预测值的相关性,(c)为绝对残差与真实值,(d)为残差与真实值。具体实施方式下面结合附图以及具体实施例对本发明的技术方案做进一步的详细说明:本发明提供一种基于路元拆分和深度学习模型lstm的路面使用性能预测模型,包括以下步骤:根据收集到的多年路面性能检测数据以及路面性能影响因素数据,完成对路路元的划分。lstm模型将路面使用性能的影响因素直接作为模型的输入,且能包括更多的影响因素变量。本发明设计的lstm模型基于2015-2017年的性能指标pi值pi(t)、pi(t-1)、pi(t-2)以及影响路面性能劣化过程的其他变量来预测2018年pi值pi(t+1)。从数据结构的角度来看,存在三种常见的数据类型,包括截面数据(cross-setionaldata)、时间序列数据(timeseriesdata)和面板数据(paneldata),面板数据是前两种类型的组合。本发明使用的数据集由面板数据组成。换句话说,路面性能数据不仅沿时间分布(时间序列数据),还包括空间分布(断面数据)。基于截面数据的模型无法得到性能数据随时间的变化,而基于时间序列数据的模型则无法得到不同路段的特性。但是,基于面板数据的模型可以互补地解决这两个缺陷。因此,基于面板数据的lstm模型能够模拟路面性能随时间变化的过程。图2为模型的输入和输出结构。模型的输入有三个维度,包括样本(路段)、时间步和影响变量。模型输入变量详情见表1。不同于传统的回归模型,lstm模型可以将更多的路面性能影响因素纳入到模型中。本发明将记录到的影响路面性能的主要因素都作为模型的输入。如表1所示,模型输入包括10个变量,包括路面结构、气候、交通荷载和历史养护4个方面。此外,输入变量还包括路龄等用以识别路段的基本信息,可以在一定程度上反映未观测变量对路面性能的影响。表1lstm模型输入变量信息在模型训练前还需要对原始数据进行预处理。首先,对连续变量进行归一化,使所有连续变量具有相似的值域。归一化数据可以提高模型的收敛速度和预测精度。使用min-max归一化方法,为标准化后的数据,x为原始数据,xmax为连续变量的最大值,xmin为连续变量最小值。输入变量和输出变量都需要进行标准化。在标准化之后,所有连续变量的值都被标准化为0到1之间。然后,将所有分类变量都转换为多个布尔变量。例如,变量“路面结构”应转换为3个布尔变量:路面、桥面和隧道。每个布尔变量的取值都应设置为1(表示真)或0(表示假)。因此,所有分类变量都有k个维度,其中k是分类变量拥有的类别数。在模型预测完成之后,需要将模型的输出值进行比例反转,因为模型的输入经过了归一化。反转之后的预测值就可以与实际值直接进行比较了。lstm网络的结构通过试验法进行设计。在设计lstm网络结构时,需要确定lstm单元的σ层和tanh层的隐藏元(hiddenunits)数。本发明对不同隐藏元数的结构进行了试验,选出了最佳结构。以验证集损失值最小的模型作为最优模型。隐藏元数不宜太大,因为隐藏元太多意味模型参数过多,可能会导致模型过度拟合的风险,降低模型的效率。因此,在本发明中,最大隐藏元数按经验设置为50。对隐藏元数为10、20、30、40或50的模型进行了测试。表2为具有不同隐藏单数的模型的验证集损失值。根据表2,对于pci、rqi模型,均在模型的隐藏元数为30时,验证集损失值最小。因此,两个模型的隐藏元数均设置为30。表2不同隐藏元数的模型的验真集损失值隐藏元数pci模型验证集损失值rqi模型验证集损失值100.0550.047200.0480.037300.0420.032400.0490.040500.0500.049本发明使用基于python的深度学习库keras来建立lstm模型。(1)分割数据集:整个数据集被随机分成一个训练集(60%)、一个验证集(20%)和一个测试集(20%)。训练集用来训练模型,验证集用来优化模型参数,选择最佳模型,测试集用来对模型进行测试。(2)初始化参数:lstm模型的权重和偏置的初始化均采用随机初始化的方式,其中状态值h的初始值设置为0。(3)防止过拟合:过拟合指的是训练得到的模型太复杂,过度学习了训练数据中存在的干扰噪声,而忽略掉数据本身的特性。具体表现为模型在训练集上表现很好,但是在验证集和测试集上的预测结果则较差。正则化和dropout是两种最常用的防止模型过拟合的方法。dropout可以在训练时随机忽略一部分神经元的工作,使其在本次训练过程中不更新权值,以此来增强网络的健壮性。正则化的思想则是在损失函数中加入关于模型复杂程度的指标,而神经网络模型复杂度由权重决定。经过正则化,可以限制权重的大小,防止模型学习到训练数据中的干扰噪声。本发明采用dropout的方法防止模型的过拟合。(4)参数优化:传统的训练方法是在遍历所有数据后对参数进行优化。该方法计算量大,训练速度慢。另一种方法是更新每个数据的参数,这种方法收敛性差。mini-batch是这两种方法的折衷方案,它将数据分为多个批次(batch),并按批次更新参数。本发明采用mini-batch方法作为训练方法。在本发明中,batch值按经验设置为32。本发明采用adam(adaptivemomentestimation)算法对参数进行优化,使用keras的modelcheckpoint存储具有最小验证集损失值的最优模型的参数,以便对测试集进行预测。模型的损失值用均方误差表示。pci模型的训练和测试结果如图3所示。图3中的(a)显示了每次迭代的训练集和验证集的损失值。如图3中的(a)所示,当迭代次数增加到100时,训练集和验证集损失值都达到一个接近稳定的值,这表明了模型训练的成功。模型的训练集损失值在第93次迭代时达到最小值0.048,最终的训练集损失值为0.048,验证集损失值在第82次迭代时达到最小值0.042,最终验证集损失值为0.044。图3中的(b)展示了pci真实值和预测值的相关性。从图3中的(b)可以看出,大多数点都分布在45度线的周围。此外,pci真实值与预测值之间具有很强的线性相关性,斜率为0.8312,r2为0.8311,说明lstm模型预测结果与pci的真实值吻合良好。图3中的(c)的横轴为pci的真实值,纵轴为预测值的绝对残差。如图3中的(c)所示,绝大多数的绝对残差值低于5,只有少数点的偏差比较大。考虑到整个数据集很大,这些异常值对于路网级的性能预测没有显著影响。图3中的(d)的横轴为pci真实值,纵轴为预测值的残差。从图3中的(c)和(d)可以看出,当pci的真实值减小时,残差值变大。这是因为大多数(81.42%)的pci值在80分以上。对于整个测试集而言,残差集中在零轴附近,表明不存在预测过高或过低的系统误差。rqi模型的训练和测试结果如图4所示。如图4中的(a)所示,与pci模型一样,当迭代次数增加到100时,训练集和验证集损失值都达到一个接近稳定的值,这表明了模型训练的成功。模型的训练集损失值在第89此迭代时达到最小值0.033,而最终的训练集损失值为0.033,验证集损失值在第80此迭代时达到最小值0.031,而最终的验证集损失值为0.035。图4中的(b)表明,rqi真实值和预测值之间具有很强的线性相关性,斜率为0.8968,r2为0.8842,表明rqi的真实值与预测结果非常接近。如图4中的(c)和(d)所示,绝大多数的绝对残差值小于5。如图4中的(c)所示,rqi值小于80时,绝对残差较大。这是因为大部分(98.33%)的rqi真实值高于80分。如图4中的(d)所示,总体上残差集中在0左右。结果表明,lstm在预测rqi时具有良好的性能。以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1