基于人工智能的车辆驾驶风险管控方法及其相关设备与流程

文档序号:21183369发布日期:2020-06-20 17:56阅读:362来源:国知局
基于人工智能的车辆驾驶风险管控方法及其相关设备与流程

本申请涉及车辆安全驾驶技术领域,特别是一种基于人工智能的车辆驾驶风险管控方法及其相关设备。



背景技术:

国内现有的dms(drivermonitorsystem,驾驶员监控系统),只是单纯的利用姿态识别、人脸识别等技术,来对驾驶用户的异常行为(抽烟、打电话、左顾右盼等)和疲劳状态(打哈欠、闭眼等)进行检测监控,并结合驾驶的车速来定义报警的等级提供给驾驶员的一种驾驶状态监控系统。

这种监控系统对驾驶安全的监控和判定都不够丰富和准确,而且仅仅结合了驾驶的速度来对报警的等级进行了区分,给出的预警不够准确和全面。



技术实现要素:

本申请实施例所要解决的技术问题是,提供一种基于人工智能的车辆驾驶风险管控方法及其相关设备,在驾驶风险评估中结合驾驶人员的异常行为和驾驶过程中人、车和路等全场景数据,对驾驶风险加以辅助判断。

为了解决上述技术问题,本申请实施例提供一种基于人工智能的车辆驾驶风险管控方法,采用了如下所述的技术方案:

一种基于人工智能的车辆驾驶风险管控方法,包括:

实时接收车辆行驶过程中关于目标驾驶用户的视频流,并获取驾驶场景数据;

提取所述视频流中所述目标驾驶用户的人脸特征,并调用预设的转换模型,将所述人脸特征输入所述转换模型以转化为一维向量数据,将所述一维向量数据作为与所述人脸特征对应的第一驾驶风险评分的数值;

计算所述视频流中所述目标驾驶用户的异常行为评分的数值,以及确定与所述驾驶场景数据对应的第二驾驶风险评分的数值;

基于所述异常行为评分、所述第一驾驶风险评分和所述第二驾驶风险评分,计算关于所述目标驾驶用户的预警分值;

根据所述预警分值确定告警结果,进而基于所述告警结果对所述目标驾驶用户进行告警。

本申请实施例所述的基于人工智能的车辆驾驶风险管控方法,在进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

进一步的,所述的基于人工智能的车辆驾驶风险管控方法,所述提取所述视频流中所述目标驾驶用户的人脸特征的步骤包括:

从所述视频流中提取出包含所述目标驾驶用户的完整人脸的有效帧;

通过多任务卷积神经网络模型检测所述有效帧,从所述有效帧中进一步提取出所述目标驾驶用户的人脸特征。

先提取有效帧后再进行人脸特征的提取,能够避免视频流图像中因没有完整或有效的人脸图像导致的无法识别的问题

进一步的,所述的基于人工智能的车辆驾驶风险管控方法,其特征在于,所述通过多任务卷积神经网络模型检测所述有效帧的步骤之前,所述方法还包括:

调用预设的损失函数;

读取包括若干对相同人脸特征和若干对不同人脸特征的预训数据组,基于所述预训数据组和所述损失函数训练所述多任务卷积神经网络模型。

通过自定义的损失函数预先训练好多任务卷积神经网络模型,能提升模型提取人脸特征的能力。

进一步的,所述的基于人工智能的车辆驾驶风险管控方法,所述计算所述视频流中所述目标驾驶用户的异常行为评分的数值的步骤包括:

确定时间统计区间和目标异常行为因子;

检测所述视频流在所述时间统计区间内的各个目标异常行为因子的数值;

根据各个目标异常行为因子的数值统计所述目标驾驶用户的异常行为次数,进而以所述异常行为次数确定所述异常行为评分的数值。

如此能适用于对不同场景下的不同识别要求。

进一步的,所述的基于人工智能的车辆驾驶风险管控方法,其特征在于,所述获取驾驶场景数据的步骤包括:

通过导航系统以预设的单位距离将车辆行程划分为若干段子行程;

在每段子行程中以预设的单位时间为间隔采集所述目标驾驶用户的驾驶场景数据;

所述确定与所述驾驶场景数据对应的第二驾驶风险评分的数值的步骤包括:

调用场景风险评估模型;

将所述驾驶场景数据输入到所述场景风险评估模型中计算第二驾驶风险评分的数值。

通过上述方式划分行程和采集数据,能够更科学、及时地计算第二驾驶风险评分的数值。

进一步的,所述的基于人工智能的车辆驾驶风险管控方法,其特征在于,所述根据所述预警分值确定告警结果,进而基于所述告警结果对所述目标驾驶用户进行告警的步骤包括:

比较预警分值与预设的多级告警阈值的大小;

确定所述预警分值所属的告警区间,进而根据所述告警区间确定所述预警分值对应的告警等级;

基于所述告警等级对所述目标驾驶用户进行告警。

以此实现根据不同程度的驾驶风险对用户进行不同程度的告警。

为了解决上述技术问题,本申请实施例还提供一种基于人工智能的车辆驾驶风险管控装置,采用了如下所述的技术方案:

一种基于人工智能的车辆驾驶风险管控装置,包括:

数据获取模块,用于实时接收车辆行驶过程中关于目标驾驶用户的视频流,并获取驾驶场景数据;

人脸特征处理模块,用于提取所述视频流中所述目标驾驶用户的人脸特征,并调用预设的转换模型,将所述人脸特征输入所述转换模型以转化为一维向量数据,将所述一维向量数据作为与所述人脸特征对应的第一驾驶风险评分的数值;

第一计算模块,用于计算所述视频流中所述目标驾驶用户的异常行为评分的数值,以及确定与所述驾驶场景数据对应的第二驾驶风险评分的数值;

第二计算模块,用于基于所述异常行为评分、所述第一驾驶风险评分和所述第二驾驶风险评分,计算关于所述目标驾驶用户的预警分值;

风险告警模块,用于根据所述预警分值确定告警结果,进而基于所述告警结果对所述目标驾驶用户进行告警。

本申请实施例所述的基于人工智能的车辆驾驶风险管控装置,在进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:

一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如上述任意一项技术方案所述的基于人工智能的车辆驾驶风险管控方法的步骤。

为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:

一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任意一项技术方案所述的基于人工智能的车辆驾驶风险管控方法的步骤。

与现有技术相比,本申请实施例主要有以下有益效果:

本申请实施例公开了一种基于人工智能的车辆驾驶风险管控方法及其相关设备,本申请实施例所述的基于人工智能的车辆驾驶风险管控方法,首先实时接收车辆行驶过程中关于目标驾驶用户的视频流,并获取驾驶场景数据;提取视频流中所述目标驾驶用户的人脸特征后,将人脸特征输入转换模型以转化为一维向量数据作为与人脸特征对应的第一驾驶风险评分的数值;再计算视频流中目标驾驶用户的异常行为评分的数值,以及确定与驾驶场景数据对应的第二驾驶风险评分的数值;而后基于这三种评分的数值计算关于所述目标驾驶用户的预警分值;最终便能根据预警分值确定告警结果后对所述目标驾驶用户进行告警。所述方法在进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本申请实施例可以应用于其中的示例性系统架构图;

图2为本申请实施例中所述基于人工智能的车辆驾驶风险管控方法的一个实施例的流程图;

图3为本申请实施例中多任务卷积神经网络模型的结构示意图;

图4为所述多任务卷积神经网络模型中卷积块步长分别为1、2时的卷积处理逻辑示意图;

图5为本申请实施例中所述基于人工智能的车辆驾驶风险管控装置的一个实施例的结构示意图;

图6为本申请实施例中计算机设备的一个实施例的结构示意图。

具体实施方式

除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。

需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“包括”、“包含”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。在本申请的权利要求书、说明书以及说明书附图中的术语,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体/操作/对象与另一个实体/操作/对象区分开来,而不一定要求或者暗示这些实体/操作/对象之间存在任何这种实际的关系或者顺序。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。

为了使本技术领域的人员更好地理解本申请的方案,下面将结合本申请实施例中的相关附图,对本申请实施例中的技术方案进行清楚、完整地描述。

如图1所示,系统架构100可以包括第一终端设备101、第二终端设备102、第三终端设备103、网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户可以使用第一终端设备101、第二终端设备102和第三终端设备103通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102和第三终端设备103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。

第一终端设备101、第二终端设备102和第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、mp3播放器(movingpictureexpertsgroupaudiolayeriii,动态影像专家压缩标准音频层面3)、mp4(movingpictureexpertsgroupaudiolayeriv,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。

服务器105可以是提供各种服务的服务器,例如对第一终端设备101、第一终端设备102和第三终端设备103上显示的页面提供支持的后台服务器。

需要说明的是,本申请实施例所提供的基于人工智能的车辆驾驶风险管控方法一般由服务器/终端设备执行,相应地,基于人工智能的车辆驾驶风险管控装置一般设置于服务器/终端设备中。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

继续参考图2,示出了本申请实施例中所述基于人工智能的车辆驾驶风险管控方法的一个实施例的流程图。所述基于人工智能的车辆驾驶风险管控方法,包括以下步骤:

步骤201:实时接收车辆行驶过程中关于目标驾驶用户的视频流,并获取驾驶场景数据。

在车辆行驶过程中,车辆中的图像采集设备,如车载红外线摄像头通过视频监控的方式采集当前驾驶人员(即目标驾驶用户)的驾驶状态,且采集的视频内容中的各帧图像应至少包含目标驾驶用户的上半身的状态,为了保证视频采集的效果,驾驶前应根据目标驾驶用户的正常驾驶姿势确认或调整好图像采集设备的位置和工作状态。通过如上方式采集的目标驾驶用户的驾驶状态以实时的视频流的形式发送至车辆中控服务器中。

本申请中,人脸特征和驾驶场景数据将共同加入对驾驶风险的评分,因此处理数据前还需获取目标驾驶用户所处的驾驶场景数据。具体地,驾驶场景数据具体包括但不限于:驾驶速度、驾驶时间、驾驶经纬度、驾驶海拔和驾驶方向。

在本申请一种较优的实施方式中,为了使获得的视频流较清晰,可以通过照明灯等辅助设备保持车载红外摄像头所处的日间光强度不低于2001x(lux/lx,勒克斯),夜间光照强度不低于501x。

在本申请实施例中,所述基于人工智能的车辆驾驶风险管控方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收视频流。需要指出的是,上述无线连接方式可以包括但不限于3g/4g连接、wifi连接、蓝牙连接、wimax连接、zigbee连接、uwb(ultrawideband)连接、以及其他现在已知或将来开发的无线连接方式。

步骤202:提取所述视频流中所述目标驾驶用户的人脸特征,并调用预设的转换模型,将所述人脸特征输入所述转换模型以转化为一维向量数据,将所述一维向量数据作为与所述人脸特征对应的第一驾驶风险评分的数值。

视频流中包含了目标驾驶用户上半身的图像数据,因此必定包含了目标驾驶用户的人脸部分的图像数据,由此可以从视频流中提取出目标驾驶用户的人脸特征。

从视频流中提取出的人脸特征一般为多维的向量数据,而最终所需的第一驾驶风险评分的数值可视为一维数据,由此,在提取出人脸特征后,还需通过一个转换模型将表示人脸特征的多维的特征数据转化为一维向量数据。在一种可选的具体实施方式中,所述转换模型为一个预先配置好的卷积层。

在本申请的一些实施例中,所述步骤202包括:

从所述视频流中提取出包含所述目标驾驶用户的完整人脸的有效帧;

通过多任务卷积神经网络模型检测所述有效帧,以进一步提取出所述目标驾驶用户的人脸特征。

将视频流中包含了目标驾驶用户完整人脸图像的视频帧视为有效帧。由视频流中提取出人脸特征时,为了避免图像中没有完整或有效的人脸图像导致的无法识别的问题,因此需要针对视频流中包含人脸图像的图像数据进行提取,可以首先从所述视频流的若干个视频帧中提取出有效帧后,再从有效帧中提取出人脸特征。

本申请中,提取人脸特征时采用多任务卷积神经网络(multi-taskconvolutionalneuralnetwork,mtcnn)模型对有效帧中人脸部位中的68个关键点进行检测,提取出人脸特征,而车辆中控服务器中预先设有训练好的mtcnn模型。

参考图3,所述mtcnn模型的结构依次包括:第一卷积层、第二卷积层、池化层和第三卷积层。第一卷积层的输入即为有效帧表示的图像数据,第一卷积层和第二卷积层之间卷积块(block)采用步长(stride)1、2、2、2、1、2、1依次进行卷积,第三卷积层最终输出的是一个表示人脸特征的512维向量。

在一种具体的实施方式中,通过所述mtcnn模型从有效帧中提取出人脸特征后,还需检测所述mtcnn模型的第三卷积层输出的人脸特征是否为512维的特征向量,以便判断mtcnn模型输出的人脸特征是否正常。若不为512维的特征向量,则表示所述mtcnn模型的网络结构可能出现异常,需要生成提示消息发送至运维端,提醒运维端的运维人员对所述mtcnn模型的网络结构进行检测。

进一步参考图4,示出了图像数据经由第一卷积层转化至第二卷积层时,卷积块的步长分别为1、2时转化步骤中的各项操作,图中“relu6”的具体定义为最大输出值为6的非线性激活函数。

进一步的,所述通过多任务卷积神经网络模型检测所述有效帧的步骤之前,所述基于人工智能的车辆驾驶风险管控方法还包括:

调用预设的损失函数;

读取包括若干对相同人脸特征和若干对不同人脸特征的预训数据组,基于所述预训数据组和所述损失函数训练所述多任务卷积神经网络模型。

本申请的一种具体实施方式中,通过设计出一种名为tetradraking的算法计算人脸特征对应的第一驾驶风险因子,tetradraking算法中包括一个自研的损失函数tetrad_loss,应用mtcnn模型前,通过该损失函数对mtcnn模型进行训练,以提升该模型提取人脸特征的能力。损失函数tetrad_loss的具体公式如下:

tetrad_loss=marginrankloss+mse_loss(相同人脸)/mse_loss(不同人脸)其中,marginrankloss是用于训练排序关系的损失函数,其数学公式为:marginrankloss=max(0,-label*(y1-y2)+margin)

该数学公式中,label表示y1和y2值的排序关系(y1>y2ory2>y1),y1表示第一个人脸的风险因子,y2表示第二个人脸的风险因子,且y1和y2属于不同的人脸,margin表示设定的一个固定分值差。

mse_loss是均方差损失函数,它表示预测值yi与目标值之间差值的平方和,其公式如下所示:

该具体实施方式中,通过tetrad_loss训练mtcnn模型的步骤如下:

输入两对人脸,第一对是不同人脸,第二对是相同人脸,通过mtcnn模型分别提取得到人脸特征,并将人脸特征转换为风险因子后,按照tetrad_loss设计的损失函数进行整个mtcnn模型的训练,先计算两个不同人脸的marginrankloss,和计算两个不同人脸的mse_loss,然后计算两个相同人脸的mse_loss,然后得到整个tetrad_loss,之后持续使用不同的数据来训练这个网络,当tetrad_loss收敛到一定程度时,即表示mtcnn模型训练成功。

步骤203:计算所述视频流中所述目标驾驶用户的异常行为评分的数值,以及确定与所述驾驶场景数据对应的第二驾驶风险评分的数值。

本申请中影响驾驶风险管控中预警分值的主要因素包括三个部分:对于目标驾驶用户异常行为的评分、人脸特征检测的评分和驾驶场景数据的评分。进行驾驶风险管控时,便需计算如上三项评分,其中人脸特征检测的评分即步骤202中获取到的第一驾驶风险评分。

在本申请的一些实施例中,步骤203中所述计算所述视频流中所述目标驾驶用户的异常行为评分的数值的步骤包括:

确定时间统计区间和目标异常行为因子;

检测所述视频流在所述时间统计区间内的各个目标异常行为因子的数值;

根据各个目标异常行为因子的数值统计所述目标驾驶用户的异常行为次数,进而以所述异常行为次数确定所述异常行为评分的数值。

对于目标驾驶用户的异常行为评分,需基于实时获取的视频流进行计算。首先,确定视频流中需进行评价的时间统计区间,一般为了能及时评分和预警,所述时间统计区间的大小可以设为包括或靠近当前时间节点的1s左右。

判断驾驶员行为异常的因素有多种,每种因素视为一个基础异常行为因子,为了适应不同场景下的不同识别要求,确定时间统计区间的同时,还需要从基础异常行为因子中选取若干项作为本申请中用于影响异常行为评分的目标异常行为因子。其中,基础异常行为因子包括但不限于:抽烟、喝水、打电话、闭眼、频繁眨眼、打哈欠、左顾右盼(低头、抬头、左偏头、右偏头),驾驶员不在驾驶位置等。

本申请中通过dms对视频流中获取到的图像进行检测,具体以视觉跟踪、目标检测、动作识别等技术对驾驶员的驾驶行为及生理状态进行检测,判断驾驶员是否出现异常行为。该步骤中,通过检测出目标驾驶用户的各目标异常行为因子的数值后,将各数值进行汇总统计出目标驾驶用户出现异常行为的总次数,记为异常行为次数,进而根据异常行为次数确定异常行为评分的具体数值,一般地,异常行为评分的数值等于检测到的异常行为次数。

其中,视频流中的一帧图像最多对应检测出x次异常行为次数,x为异常行为因子的数量。即一帧图像中若检测到目标驾驶用户存在x项对应目标异常行为因子的异常行为,便表示该帧图像对应的异常行为次数为x。因此若时间统计区间内视频流的帧数为n,最终计算出的异常行为评分的数值范围为0~x*n。

在本申请的一些实施例中,步骤201中所述获取驾驶场景数据的步骤包括:

通过导航系统以预设的单位距离将车辆行程划分为若干段子行程;

在每段子行程中以预设的单位时间为间隔采集所述目标驾驶用户的驾驶场景数据。

步骤203中所述确定与所述驾驶场景数据对应的第二驾驶风险评分的数值的步骤包括:

调用场景风险评估模型;

将所述驾驶场景数据输入到所述场景风险评估模型中计算第二驾驶风险评分的数值。

基于驾驶场景数据评分进行评分时,首先可以通过导航系统先以预设的单位距离(如1km)先将车辆行程划分为若干段子行程后,在每段子行程中每隔单位时间(如1s)采集驾驶场景数据发送给车辆中控服务器,服务器中将接收到的驾驶场景输入场景风险评估模型,便能获取到关于单位时间内的第二驾驶风险评分的数值。按上述方式划分行程和采集数据,能够更科学、及时地计算第二驾驶风险评分的数值。

本申请中,所述场景风险评估模型的结构在输入层和输出层之间依次设置有卷积层、池化层和全连接层。具体地,输出层最终输出的为0-100类的概率,此时选取其中最高概率的类别标签作为当前驾驶场景数据对应的风险类别,并获取该类别对应的分值,作为第二驾驶风险评分的数值。

步骤204:基于所述异常行为评分、所述第一驾驶风险评分和所述第二驾驶风险评分,计算关于所述目标驾驶用户的预警分值。

预警分值由异常行为评分、第一驾驶风险评分和第二驾驶风险评分共同参与计算得出。预警分值用于判断当前驾驶用户,即目标驾驶用户的驾驶状态是否具有较大风险。

在本申请一种具体的实施方式中,车辆中控服务器以1s作为单位时间,对用户的驾驶状态进行监控,异常行为评分和第一驾驶风险评分所基于的视频流中的各帧图像,应属于同1s内的视频流,同时第二驾驶风险基于的驾驶场景数据也应是该1s内所采集的数据,如此能使预警的结果更为准确。

在本申请的一些实施例中,所述步骤204包括:

调用预设的分值计算公式,确定所述分值计算公式中加权参数的值;

将所述异常行为评分、所述第一驾驶风险评分和所述第二驾驶风险评分输入所述分值计算公式,以计算出所述预警分值。

进一步的,所述分值计算公式为:

final_score=α*(facekydscore/100)*dmsscore+β*driveenvscore

其中,final_score为预警分值,facekydscore为第一驾驶风险评分,dmsscore为异常行为评分,driveenvscore为第二驾驶风险评分;α和β为加权的参数,取值范围为(0,1),在一种较优的具体实施方式中,α=0.75β=0.25。

facekydscore会影响final_score中dmsscore的分值比例,如果facekydscore越高,表示目标驾驶用户异常行为的报警等级越高,如果facekydscore越低,表示目标驾驶用户的异常行为的报警等级越低,通过两者的结合,会使对异常行为的预警更准确。

步骤205:根据所述预警分值确定告警结果,进而基于所述告警结果对所述目标驾驶用户进行告警。

车辆中控服务器根据预警分值的大小判断当前是否应发出告警,从而对用户驾驶风险进行管控。进行告警结果判断时,可以仅根据预警分值判断是否应发出告警,也可进一步判断需进行告警的等级后,再采用不同的告警方式进行告警。

在本申请的一些实施例中,所述步骤205包括:

比较预警分值与预设的告警阈值的大小,若所述预警分值大于所述告警阈值,则激活预设的告警消息对所述目标驾驶用户进行告警。

该部分实施例的实施方式中,设置的一个告警阈值,用于判断是否预警分值所表示的目标驾驶用户的驾驶行为是否具有应进行告警的较大驾驶风险。若预警分值大于告警阈值,便表示当前目标驾驶用户的驾驶风险较大,便激活预设的告警消息对其进行告警。

在本申请的另一些实施例中,所述步骤205包括:

比较预警分值与预设的多级告警阈值的大小;

确定所述预警分值所属的告警区间,进而根据所述告警区间确定所述预警分值对应的告警等级;

基于所述告警等级对所述目标驾驶用户进行告警。

该部分实施例的实施方式中,设置的多级告警阈值,用于判断预警分值对应的告警等级,通过将预警分值与由小到大设置的告警阈值的大小进行比对,确定预警分值具体在哪两个告警阈值之间,从而确定预警分值所处的告警区间,进而确定预警分值对应的告警等级。而后便能根据告警等级激活预设的告警机制对目标驾驶用户进行告警,如此能实现根据不同程度的驾驶风险对用户进行不同程度的告警。

本申请实施例所述的基于人工智能的车辆驾驶风险管控方法,在进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)等非易失性存储介质,或随机存储记忆体(randomaccessmemory,ram)等。

应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

进一步参考图5,图5示出了为本申请实施例中所述基于人工智能的车辆驾驶风险管控装置的一个实施例的结构示意图。作为对上述图2所示方法的实现,本申请提供了一种基于人工智能的车辆驾驶风险管控装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图5所示,本实施例所述的基于人工智能的车辆驾驶风险管控装置包括:

数据获取模块301;用于实时接收车辆行驶过程中关于目标驾驶用户的视频流,并获取驾驶场景数据。

人脸特征处理模块302;用于提取所述视频流中所述目标驾驶用户的人脸特征,并调用预设的转换模型,将所述人脸特征输入所述转换模型以转化为一维向量数据,将所述一维向量数据作为与所述人脸特征对应的第一驾驶风险评分的数值。

第一计算模块303;用于计算所述视频流中所述目标驾驶用户的异常行为评分的数值,以及确定与所述驾驶场景数据对应的第二驾驶风险评分的数值。

第二计算模块304;用于基于所述异常行为评分、所述第一驾驶风险评分和所述第二驾驶风险评分,计算关于所述目标驾驶用户的预警分值。

风险告警模块305;用于根据所述预警分值确定告警结果,进而基于所述告警结果对所述目标驾驶用户进行告警。

在本申请的一些实施例中,所述人脸特征处理模块302用于从所述视频流中提取出包含所述目标驾驶用户的完整人脸的有效帧;通过多任务卷积神经网络模型检测所述有效帧,以进一步提取出所述目标驾驶用户的人脸特征。

进一步的,所述基于人工智能的车辆驾驶风险管控装置还包括:预训练模块。所述预训练模块用于调用预设的损失函数;读取包括若干对相同人脸特征和若干对不同人脸特征的预训数据组,基于所述预训数据组和所述损失函数训练所述多任务卷积神经网络模型。

在本申请的一些实施例中,所述第一计算模块303还包括:异常行为评分子模块。所述异常行为评分子模块用于确定时间统计区间和目标异常行为因子;检测所述视频流在所述时间统计区间内的各个目标异常行为因子的数值;根据各个目标异常行为因子的数值统计所述目标驾驶用户的异常行为次数,进而以所述异常行为次数确定所述异常行为评分的数值。

在本申请的一些实施例中,所述数据获取模块301还包括:场景数据采集子模块;所述第一计算模块303还包括:场景风险评分子模块。所述场景数据采集子模块用于通过导航系统以预设的单位距离将车辆行程划分为若干段子行程;在每段子行程中以预设的单位时间为间隔采集所述目标驾驶用户的驾驶场景数据。所述场景风险评分子模块用于调用场景风险评估模型;将所述驾驶场景数据输入到所述场景风险评估模型中计算第二驾驶风险评分的数值。

在本申请的一些实施例中,所述风险告警模块305还用于比较预警分值与预设的多级告警阈值的大小;确定所述预警分值所属的告警区间,进而根据所述告警区间确定所述预警分值对应的告警等级;基于所述告警等级对所述目标驾驶用户进行告警。

本申请实施例所述的基于人工智能的车辆驾驶风险管控装置,在进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。

所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(applicationspecificintegratedcircuit,asic)、可编程门阵列(field-programmablegatearray,fpga)、数字处理器(digitalsignalprocessor,dsp)、嵌入式设备等。

所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。

所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,sd或dx存储器等)、随机访问存储器(ram)、静态随机访问存储器(sram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、可编程只读存储器(prom)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(smartmediacard,smc),安全数字(securedigital,sd)卡,闪存卡(flashcard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如基于人工智能的车辆驾驶风险管控方法的程序代码等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。

所述处理器62在一些实施例中可以是中央处理器(centralprocessingunit,cpu)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的程序代码或者处理数据,例如运行所述基于人工智能的车辆驾驶风险管控方法的程序代码。

所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。

本申请实施例所述的计算机设备,通过处理器执行存储器中存储的计算机程序进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有基于人工智能的车辆驾驶风险管控程序,所述基于人工智能的车辆驾驶风险管控程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于人工智能的车辆驾驶风险管控方法的步骤。

本申请实施例所述的计算及存储介质,在执行其中存储的计算机程序进行驾驶风险评估时,将异常行为检测与人脸识别技术相结合,使对车辆行驶过程中的驾驶员驾驶风险的评估更全面、科学,提升了对驾驶风险预警的准确性,并与驾驶过程中人、车和路等全场景数据相融合对驾驶风险进行实时判断,进一步提升了关于驾驶风险评估的准确度和丰富度。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。

在本申请所提供的上述实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。

所述模块或组件可以是或者也可以不是物理上分开的,作为模块或组件显示的部件可以是或者也可以不是物理模块,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块或组件来实现本实施例方案的目的。

本申请不限于上述实施方式,以上所述是本申请的优选实施方式,该实施例仅用于说明本申请而不用于限制本申请的范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,其依然可以对前述各具体实施方式所记载的技术方案进行若干改进和修饰,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理应视为包括在本申请的保护范围之内。

显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,以及凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1