一种机动车车厢载人识别方法、装置和计算机设备与流程

文档序号:23419964发布日期:2020-12-25 11:42阅读:170来源:国知局
一种机动车车厢载人识别方法、装置和计算机设备与流程

本申请涉及计算机视觉领域,特别是涉及一种机动车车厢载人识别方法、装置和计算机设备。



背景技术:

城市道路机动车车辆的不断增加,机动车违规驾驶的行为也越来越多,造成严重的交通事故,危及人们的生命安全。由于计算机视觉技术的不断进步,在智能交通领域也得到了广泛的应用,可以对这些违法驾驶车辆进行抓拍、处罚。

相关技术中,在识别货车或者皮卡车等机动车车厢内是否载人时,通过定位人员携带的终端设备,当终端设备处于指定的目标区域(车厢)内时,获取终端设备的速度,当该速度超过给定的速度值时,判断机动车车厢内载有人,这种机动车车厢载人识别方式,需要人员携带定位设备,也就是依赖具体的定位设备,才能对机动车车厢内是否载人进行识别,因此一旦机动车车厢内的人未携带定位设备,则无法识别到机动车车厢内的人,进而该识别方式存在机动车车厢载人识别准确率低的问题。

目前针对相关技术中依赖具体的定位设备,对机动车车厢内是否载人进行识别,存在机动车车厢载人识别准确率低的问题,尚未提出有效的解决方案。



技术实现要素:

本申请实施例提供了一种机动车车厢载人识别方法、装置和计算机设备,以至少解决相关技术中依赖具体的定位设备,对机动车车厢内是否载人进行识别,存在机动车车厢载人识别准确率低的问题。

第一方面,本申请实施例提供了一种机动车车厢载人识别方法,所述方法包括:

获取目标车辆的图片;

将所述图片输入到深度学习模型,获得所述目标车辆的车辆类型,以及获得所述目标车辆的车辆关键点;其中,采用车辆类型和车辆关键点训练所述深度学习模型;

在所述车辆类型是预设车辆类型的情况下,根据所述车辆关键点确定车厢检测区域,并利用人脸检测模型对所述车厢检测区域进行人脸检测,以确定所述车厢是否载人。

在其中一些实施例中,训练所述深度学习模型的方法包括:

建立带有第一分支网络和第二分支网络的深度学习模型;其中,所述第一分支网络用于车辆类型的识别,所述第二分支网络用于车辆关键点的定位;

从图像数据库中获取车辆图片和与所述车辆图片相对应的标注信息;

根据所述车辆图片和所述标注信息训练所述深度学习模型,且所述深度学习模型的损失函数为所述第一分支网络的损失函数与所述第二分支网络的损失函数之和。

在其中一些实施例中,用所述车辆图片和所述标注信息训练所述深度学习模型包括:

根据所述车辆图片和所述标注信息分别训练所述第一分支网络和所述第二分支网络;

在训练所述第二分支网络的情况下,分别获取所述第一分支网络中的车辆类型特征图和所述第二分支网络的车辆关键点特征图,并根据所述车辆类型特征图和所述车辆关键点特征图确定所述第二分支网络的第二特征图,并根据所述第二特征图训练所述第二分支网络。

在其中一些实施例中,根据所述车辆类型特征图和所述车辆关键点特征图确定所述第二分支网络的第二特征图包括:

对所述车辆类型特征图进行跨通道采样,以生成注意力特征图;

将所述注意力特征图与所述车辆关键点特征图对应像素点乘,以确定第二特征图。

在其中一些实施例中,将所述图片输入到深度学习模型之前,所述方法还包括:

根据车辆检测模型对所述图片中的所述目标车辆进行检测,确定所述目标车辆在所述图片中的位置信息,以将包含有所述目标车辆位置信息的图片输入到所述深度学习模型。

在其中一些实施例中,利用人脸检测模型对所述车厢检测区域进行人脸检测,以确定所述车厢是否载人包括:

在所述人脸检测模型检测到人脸,且置信度大于预设阈值的情况下,确定所述车厢载人,并在所述车辆载人的情况下,利用所述人脸检测模型获取所述人脸检测数目以及所述人脸的位置。

在其中一些实施例中,所述车辆关键点为四个;根据所述车辆关键点确定车厢检测区域包括:

获取各个所述关键点的坐标;

根据所述坐标确定所述车辆关键点形成的区域,选取面积最大的所述区域作为所述车厢检测区域。

第二方面,本申请实施例提供了一种机动车车厢载人识别装置,所述装置包括:获取模块、深度学习模块和人脸检测模块;

所述获取模块,用于获取目标车辆的图片;

所述深度学习模块,用于将所述图片输入到深度学习模型,获得所述目标车辆的车辆类型,以及获得所述目标车辆的车辆关键点;其中,所述深度学习模型是采用车辆类型和车辆关键点训练的;

所述人脸检测模块,用于在所述车辆类型是预设车辆类型的情况下,根据所述车辆关键点确定车厢检测区域,并利用人脸检测模型对所述车厢检测区域进行人脸检测,以确定所述车厢是否载人。

第三方面,本申请实施例提供了一种机动车车厢载人识别系统,所述系统包括:摄像头和中央处理器;

所述摄像头,用于获取目标车辆的图片;

所述中央处理器,用于将所述图片输入到深度学习模型,获得所述目标车辆的车辆类型,以及获得所述目标车辆的车辆关键点;其中,所述深度学习模型是采用车辆类型和车辆关键点训练的,并在所述车辆类型是预设车辆类型的情况下,根据所述车辆关键点确定车厢检测区域,并利用人脸检测模型对所述车厢检测区域进行人脸检测,以确定所述车厢是否载人。

第四方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的机动车车厢载人识别方法。

相比于相关技术,本申请实施例提供的机动车车厢载人识别方法,通过获取目标车辆的图片,将所述图片输入到深度学习模型,获得所述目标车辆的车辆类型,以及获得所述目标车辆的车辆关键点;其中,采用车辆类型和车辆关键点训练所述深度学习模型,在所述车辆类型是预设车辆类型的情况下,根据所述车辆关键点确定车厢检测区域,并利用人脸检测模型对所述车厢检测区域进行人脸检测,以确定所述车厢是否载人,解决了相关技术中依赖具体的定位设备,对机动车车厢内是否载人进行识别,存在机动车车厢载人识别准确率低的问题,提高了机动车车厢载人识别的准确率。

附图说明

此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1是根据本申请实施例的机动车车厢载人识别方法的流程图一;

图2是根据本申请实施例的训练深度学习模型的方法的流程图一;

图3是根据本申请实施例的训练深度学习模型的方法的流程图二;

图4是根据本申请实施例的训练深度学习模型的方法的流程图三;

图5是根据本申请实施例的机动车车厢载人识别方法的流程图二;

图6是根据本申请实施例的机动车车厢载人识别方法的流程图三;

图7a是根据本申请实施例的机动车车厢载人识别方法的流程图四;

图7b是根据本申请实施例的目标车辆的车辆关键点的示意图;

图8是根据本申请实施例的机动车车厢载人识别装置的结构框图;

图9是根据本申请实施例的机动车车厢载人识别系统的结构框图;

图10是根据本申请实施例的计算机设备的硬件结构示意图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。

显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。

在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。

除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。

本申请提供的机动车车厢载人识别方法,可以应用于智能交通中,例如,车辆类型是货车、皮卡车等具有外部车厢的车型,对该车厢内是否载人进行识别,以实现对违法驾驶车辆进行抓拍、处罚,通过获取目标车辆的图片,将图片输入到深度学习模型,获得目标车辆的车辆类型,以及获得目标车辆的车辆关键点,其中,采用车辆类型和车辆关键点训练深度学习模型,在车辆类型是预设车辆类型的情况下,根据车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行人脸检测,以确定车厢是否载人。

本实施例提供了一种机动车车厢载人识别方法,图1是根据本申请实施例的机动车车厢载人识别方法的流程图一,如图1所示,该流程包括如下步骤:

步骤s101,获取目标车辆的图片,需要说明的是,目标车辆的图片可以是卡口摄像机或者电警摄像机的道路图像,其中,卡口摄像机主要是用于城市道路或者高速公路出入口、收费站等重点治安监控地段的全天候实时监测与记录,像收费站、交通或治安检查站等地点大部分都安装有卡口摄像机;电警摄像机主要是对城市道路违规的车辆进行抓拍;

步骤s102,将图片输入到深度学习模型,获得目标车辆的车辆类型,以及获得目标车辆的车辆关键点;其中,采用车辆类型和车辆关键点训练深度学习模型;需要说明的是,目标车辆的车辆类型可以是以下几种:货车、小轿车、面包车、皮卡车、非机动车和客车;

步骤s103,在车辆类型是预设车辆类型的情况下,根据车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行人脸检测,以确定车厢是否载人;

需要说明的是,在深度学习模型输出目标车辆的车辆类型之后,对目标车辆的车辆类型进行过滤,也就是过滤到车辆类型不属于货车、皮卡车等具有外部车厢的车型,留下车辆类型属于货车、皮卡车等具有外部车厢的车型,也可以理解为货车、皮卡车等具有外部车厢的车型是预设车辆类型。在车辆类型是预设车辆类型的情况下,根据车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行检测,需要进一步说明的是,人脸检测模型包括但不限于yolo目标检测、mtcnn人脸检测、retinanet目标检测等模型;

通过上述步骤s101至步骤s103,将目标车辆的图片输入已经训练好的多任务深度学习模型中,获取到目标车辆的车辆类型和目标车辆的车辆关键点,并在目标车辆的车辆类型是预设车辆类型的情况下,根据目标车辆的车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行人脸检测,进而来识别货车、皮卡车等外部车厢中是否载人,解决了相关技术中依赖具体的定位设备对机动车车厢内是否载人进行识别,存在机动车车厢载人识别准确率低的问题,提高了机动车车厢载人识别的准确率,并相较于关技术中依赖具体的定位设备对机动车车厢内是否载人进行识别,不需要人员携带定位设备,没有额外的设备成本。

在其中一些实施例中,图2是根据本申请实施例的训练深度学习模型的方法的流程图一,如图2所示,该流程包括如下步骤:

步骤s201,建立带有第一分支网络和第二分支网络的深度学习模型;其中,第一分支网络用于车辆类型的识别,第二分支网络用于车辆关键点的定位;

需要说明的是,第一分支网络,获取输入图片,可以是经过cnn卷积神经网络模型,进行特征提取、分类,输出车型结果信息;第二分支网络与第一分支网络采用相同的输入图片,第二分支网络经过cnn网络模型,输出车辆关键点的坐标信息;

步骤s202,从图像数据库中获取车辆图片和与车辆图片相对应的标注信息;需要说明的是,与车辆图片相对应的标注信息包括:该车辆图片中目标车辆的车辆类别以及目标车辆的关键点位置信息;

步骤s203,根据车辆图片和标注信息训练深度学习模型,且深度学习模型的损失函数为第一分支网络的损失函数与第二分支网络的损失函数之和;

其中,将通过深度学习模型预测出的车辆类型与标注的车辆类型进行比较,以确定损失函数用ltype,第一分支网络也就是车辆类型分类网络,可以采用交叉熵损失函数进行训练;将预测出的车辆关键点和标注的车辆关键点进行比较,损失函数采用均方误差函数lpoint来评估预测,深度学习模型最终的损失函数是第一分支网络的损失函数ltype加上第二分支网络的损失函数lpoint,深度学习模型的损失函数可以用如下公式进行表示:

lall=ltype+lpoint公式1

上述公式1中,lall为深度学习模型的损失函数,ltype为第一分支网络的损失函数,lpoint为第二分支网络的损失函数;

通过上述步骤s201至步骤s203,通过从图像数据库中获取车辆图片和与车辆图片相对应的标注信息,对带有第一分支网络和第二分支网络的深度学习模型进行训练,并将两分支网络的损失函数之和作为该深度学习模型的损失函数,使得一个深度学习模型可以在输入关于目标车辆的图片的情况下,可以输出车辆类型和车辆标注,实现多任务的完成,提高对带有目标车辆图片的处理效率。

在其中一些实施例中,图3是根据本申请实施例的训练深度学习模型的方法的流程图二,如图3所示,用车辆图片和标注信息训练深度学习模型的流程包括如下步骤:

步骤s301,根据车辆图片和标注信息分别训练第一分支网络和第二分支网络。其中,用车辆图片与标注信息中的车辆类别训练第一分支网络,用车辆图片与标注信息中的车辆关键点训练第二分支网络;

步骤s302,在训练第二分支网络的情况下,分别获取第一分支网络中的车辆类型特征图和第二分支网络的车辆关键点特征图,并根据车辆类型特征图和车辆关键点特征图确定第二分支网络的第二特征图,并根据第二特征图训练第二分支网络;

其中,由于不同类型的车辆关键点的位置有所不同,因此在用车辆图片与标注信息中的车辆关键点训练第二分支网络的情况下,借助第一分支网络中所提取的目标车辆的车辆类型特征图,并根据车辆类型特征图和车辆关键点特征图进行第二分支网络的训练;

通过上述步骤s301至步骤s302,在用车辆图片与标注信息中的车辆关键点训练第二分支网络的情况下,借助第一分支网络中所提取的目标车辆的车辆类型特征图,进而提高第二分支网络的精度。

在其中一些实施例中,图4是根据本申请实施例的训练深度学习模型的方法的流程图三,如图4所示,根据车辆类型特征图和车辆关键点特征图确定第二分支网络的第二特征图的流程包括如下步骤:

步骤s401,对车辆类型特征图进行跨通道采样,以生成注意力特征图;需要说明的是,在对车辆关键点定位的模型中,加入了注意力机制,也就是融合车辆类型的特征信息,进行车辆关键点定位。对车辆类型特征图ftype进行跨通道采样,其中ftype的维度可以为rm*h*w,取m通道的最大值,得到注意力特征图att∈r1*h*w

步骤s402,将注意力特征图与车辆关键点特征图对应像素点乘,以确定第二特征图。其中,车辆关键点特征图fpoint∈rn*h*w,对fpoint的每一通道fpoint∈r1*h*w,与注意力特征图att∈r1*h*w进行对应像素点乘,得到新的特征图f'point∈rn*h*w,也就是第二特征图,在确定第二特征图的基础上,进行后续的特征计算;

通过上述步骤s401至步骤s402,在深度学习模型中,车辆关键点特征图和注意力特征图对应像素点乘,融合了车辆类型的特征图信息,有利于有效的利用车辆类型特征,进而进一步提高深度学习模型的精度。

在其中一些实施例中,图5是根据本申请实施例的机动车车厢载人识别方法的流程图二,如图5所示,将图片输入到深度学习模型之前,该方法还包括如下步骤:

步骤s501,根据车辆检测模型对图片中的目标车辆进行检测,确定目标车辆在图片中的位置信息,以将包含有目标车辆位置信息的图片输入到深度学习模型;需要说明的是,对城市道路场景中的车辆进行标注,标注结果包含每一个车辆的位置信息,利用标注结果,训练一个车辆检测模型,模型包括但不限于ssd目标检测算法(其英文全名是singleshotmultiboxdetector)、yolo检测算法(其英文全名是youonlylookonce)等,主干网络可以是resnet网络、inception网络、densenet网络,mobilenet网络等;

通过上述步骤s501,在将城市道路中关于目标车辆的图片输入深度学习模型之前,先对该图片进行目标车辆的检测,以在图片中标注好每一个目标车辆的位置,然后将带有目标车辆位置信息的图片输入到深度学习模型中,也就是在将图片输入至深度学习模型之前做一个预处理,以便于深度学习模型对图片中目标车辆特征的拾取。

在其中一些实施例中,图6是根据本申请实施例的机动车车厢载人识别方法的流程图三,如图6所示,利用人脸检测模型对车厢检测区域进行人脸检测,以确定车厢是否载人的流程包括如下步骤:

步骤s601,在人脸检测模型检测到人脸,且置信度大于预设阈值的情况下,确定车厢载人,并在车辆载人的情况下,利用人脸检测模型获取人脸检测数目以及人脸的位置;

其中,人脸检测模型包括但不限于yolo、mtcnn、retinanet等模型,置信度是指在人脸检测模型检测到人脸的情况下,对该人脸实行一个评分机制,例如,从人脸遮挡、位置、大小等不同形式中去评价所检测到的人脸,若检测到人脸,并且置信度大于指定的阈值,则可以进行车辆违章判罚,利用人脸检测模型获取人脸检测数目以及人脸的位置,可用于作为违章判罚的依据;

通过上述步骤s601,在人脸检测模型检测到人脸之后,并进一步判断所检测到的人脸所对应的置信度是否大于预设阈值,以确保人脸检测的精度,并在人脸的置信度大于预设阈值的情况下,利用人脸检测模型获取人脸检测数目以及人脸的位置,便于后期作为对外部车厢载人违章判罚的依据。

在其中一些实施例中,图7a是根据本申请实施例的机动车车厢载人识别方法的流程图四,其中车辆关键点为四个,图7b是根据本申请实施例的目标车辆的车辆关键点的示意图,如图7b所示,四个关键点分别为a点、b点、c点和d点,且a点、b点、c点和d点均位于皮卡车或者货车等带有车厢的车辆顶部;如图7a所示,根据车辆关键点确定车厢检测区域的流程包括以下步骤:

步骤s701,获取各个关键点的坐标;例如,四个关键点的坐标分别为(xa,ya)、(xb,yb)、(xc,yc)、(xd,yd);

步骤s702,根据坐标确定车辆关键点形成的区域,选取面积最大的区域作为车厢检测区域;

其中,通过a点中的xa和c点中的xc确定车厢检测区域的左上角坐标xl,通过a点中的ya和b点中的yb确定车厢检测区域的左上角坐标yl,进而确定车厢检测区域的左上角坐标(xl,yl);通过b点中的xb和d点中的xd确定车厢检测区域的右下角坐标xr,通过c点中的yc和d点中的yd确定车厢检测区域的右下角坐标yr,进而选取四个关键点所组成的最大面积区域作为车厢检测区域,进而确定车厢检测区域的右下角坐标(xr,yr);

通过上述步骤s701至步骤s702,根据四个关键点的坐标(xa,ya)、(xb,yb)、(xc,yc)、(xd,yd),选取四个关键点所组成的最大面积区域作为车厢检测区域,以降低漏掉外部部分车厢区域未进行人脸检测的概率。

需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。

本实施例还提供了一种机动车车厢载人识别装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。

图8是根据本申请实施例的机动车车厢载人识别装置的结构框图,如图8所示,该装置包括:获取模块80、深度学习模块81和人脸检测模块82;

获取模块80,用于获取目标车辆的图片;

深度学习模块81,用于将图片输入到深度学习模型,获得目标车辆的车辆类型,以及获得目标车辆的车辆关键点;其中,深度学习模型是采用车辆类型和车辆关键点训练的;

人脸检测模块82,用于在车辆类型是预设车辆类型的情况下,根据车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行人脸检测,以确定车厢是否载人。

在其中一些实施例中,深度学习模块81和人脸检测模块82还用于实现上述各实施例提供的机动车车厢载人识别方法中的步骤,在这里不再赘述。

需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。

本申请还提供了一种机动车车厢载人识别系统,图9是根据本申请实施例的机动车车厢载人识别系统的结构框图,该系统包括摄像头90和中央处理器91;

摄像头90,用于获取目标车辆的图片;

中央处理器91,用于将图片输入到深度学习模型,获得目标车辆的车辆类型,以及获得目标车辆的车辆关键点;其中,深度学习模型是采用车辆类型和车辆关键点训练的,并在车辆类型是预设车辆类型的情况下,根据车辆关键点确定车厢检测区域,并利用人脸检测模型对车厢检测区域进行人脸检测,以确定车厢是否载人。

在其中一些实施例中,中央处理器91还用于实现上述各实施例提供的机动车车厢载人识别方法中的步骤,在这里不再赘述。

另外,结合图1描述的本申请实施例的机动车车厢载人识别方法可以由计算机设备来实现。计算机设备可以包括处理器以及存储有计算机程序指令的存储器。

具体地,上述处理器可以包括中央处理器(cpu),或者特定集成电路(applicationspecificintegratedcircuit,简称为asic),或者可以被配置成实施本申请实施例的一个或多个集成电路。

其中,存储器可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器可包括硬盘驱动器(harddiskdrive,简称为hdd)、软盘驱动器、固态驱动器(solidstatedrive,简称为ssd)、闪存、光盘、磁光盘、磁带或通用串行总线(universalserialbus,简称为usb)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器可在数据处理装置的内部或外部。在特定实施例中,存储器是非易失性(non-volatile)存储器。在特定实施例中,存储器包括只读存储器(read-onlymemory,简称为rom)和随机存取存储器(randomaccessmemory,简称为ram)。在合适的情况下,该rom可以是掩模编程的rom、可编程rom(programmableread-onlymemory,简称为prom)、可擦除prom(erasableprogrammableread-onlymemory,简称为eprom)、电可擦除prom(electricallyerasableprogrammableread-onlymemory,简称为eeprom)、电可改写rom(electricallyalterableread-onlymemory,简称为earom)或闪存(flash)或者两个或更多个以上这些的组合。在合适的情况下,该ram可以是静态随机存取存储器(staticrandom-accessmemory,简称为sram)或动态随机存取存储器(dynamicrandomaccessmemory,简称为dram),其中,dram可以是快速页模式动态随机存取存储器(fastpagemodedynamicrandomaccessmemory,简称为fpmdram)、扩展数据输出动态随机存取存储器(extendeddateoutdynamicrandomaccessmemory,简称为edodram)、同步动态随机存取内存(synchronousdynamicrandom-accessmemory,简称sdram)等。

存储器可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器所执行的可能的计算机程序指令。

处理器通过读取并执行存储器中存储的计算机程序指令,以实现上述实施例中的任意一种机动车车厢载人识别方法。

在其中一些实施例中,计算机设备还可包括通信接口103和总线100,图10是根据本申请实施例的计算机设备的硬件结构示意图,如图10所示,处理器101、存储器102、通信接口103通过总线100连接并完成相互间的通信。

通信接口103用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信接口103还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。

总线100包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线100包括但不限于以下至少之一:数据总线(databus)、地址总线(addressbus)、控制总线(controlbus)、扩展总线(expansionbus)、局部总线(localbus)。举例来说而非限制,总线100可包括图形加速接口(acceleratedgraphicsport,简称为agp)或其他图形总线、增强工业标准架构(extendedindustrystandardarchitecture,简称为eisa)总线、前端总线(frontsidebus,简称为fsb)、超传输(hypertransport,简称为ht)互连、工业标准架构(industrystandardarchitecture,简称为isa)总线、无线带宽互连、低引脚数(lowpincount,简称为lpc)总线、存储器总线、微信道架构(microchannelarchitecture,简称为mca)总线、外围组件互连(peripheralcomponentinterconnect,简称为pci)总线、pci-express(pci-x)总线、串行高级技术附件(serialadvancedtechnologyattachment,简称为sata)总线、视频电子标准协会局部(videoelectronicsstandardsassociationlocalbus,简称为vlb)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线100可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。

另外,结合上述实施例中的机动车车厢载人识别方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意机动车车厢载人识别方法。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1