本申请要求2016年11月7日提交的美国临时申请序列号62/418,655的权益,该临时申请通过引用整体并入本文。
本发明一般涉及车辆交互领域,更具体地涉及用于车辆交互领域中的确定驾驶员分心的新的和有用的系统和方法。
附图说明
图1是用于驾驶员分心确定的方法的流程图表示。
图2是用于驾驶员分心确定的作为例子的系统的示意图。
图3是确定模块更新的例子的示意表示。
图4是与针对一个驾驶会话中车辆沿示例路线经过的多个地点的每一个所确定的多个驾驶员分心分数相关联的路线的示意表示。
图5是与实现方法的示例相关联的示例信息和处理流程的示意图。
图6是实现方法的特定示例的流程图表示。
图7是实现方法的特定示例的流程图表示。
优选实施例
以下对本发明优选示例的描述并非旨在将本发明限制于这些优选示例,而是使本领域技术人员能够制造和使用本发明。
1.概述。
如图1所示,用于确定驾驶员分心的方法100包括:在驾驶会话期间对传感器测量值进行采样s110;基于传感器测量值确定分心因子值s120;并且基于因子值确定驾驶员分心s130。方法100用于确定驾驶员在驾驶会话期间是否分心。在一些变型中,方法100可以确定频率,严重性,位置,周围环境(例如,并发交通参数,并发车辆内部参数等),和/或驾驶员分心事件的任何其他合适参数(例如,驾驶员分心参数)。该方法可以可选地包括将传感器测量值发送到远程计算系统s140;基于确定驾驶员分心生成通知s150;并且,在应用中使用驾驶员分心确定s160。
方法100的全部或部分优选地以实时或接近实时的方式执行(例如,在驾驶会话期间,当正在采样新的传感器测量值时等),但是可替代地可以异步地执行(例如,在驾驶会话结束之后,当用于车外(off-vehicle)数据传输的合适网络链路可用时等)或在任何其他合适的时间。方法100优选地针对多个驾驶员和多个驾驶会话执行,但是可替代地针对单个驾驶员,单个驾驶会话或任何合适的驾驶员或驾驶会话群体(population)执行。方法100优选地在整个驾驶会话中重复多次,但是可以替代地每个驾驶会话执行一次,响应于确定事件的发生而执行(例如,当分心因子值超过阈值时;当接近碰撞事件发生时;当用户启动分心确定;等)时,或者在任何其他合适的时间或频率下执行。
方法100可以完全或部分地由车辆上的系统(例如,车载系统)执行。该系统可以是改装到车辆上的辅助系统,车辆本身,用户设备或任何其他合适系统。该系统可包括传感器(例如,光学传感器,音频传感器,立体相机,立体声麦克风,惯性传感器,加速度计,陀螺仪,磁力计等),处理系统(例如,cpu,gpu),输出(例如,扬声器,振动机构等),定位系统(例如,gps,蜂窝三边测量系统等),通信系统(例如,远程连接,例如蜂窝或wifi,短程连接,例如ble或nfc,有线连接,例如车辆数据总线等),电力系统(例如,车辆电源插头,电池等)或任何其他合适的部件。在一个变型中,该系统包括面向内部的相机(例如,朝向车辆内部,朝向驾驶员的头部体),面向外部的相机(例如,指向地平线,朝向道路等),一组音频传感器,一组惯性传感器,定位系统和安装件,该安装件配置成将系统安装到车辆仪表板,挡风玻璃,后视镜或车辆的任何其他合适的部件。在另一个变型中,方法100由基本上如2017年9月14日提交的美国申请序列号15/705,043中描述的系统执行,该申请通过引用以其整体并入本文。然而,该方法可以由任何其他合适的系统执行。在一个例子中,面向内部的相机和面向外部的相机之间的相对位置和/或相对视场关系(例如,x,y,z关系;角度关系等)是已知的并且是静态耦合的,从而例如从由面向内部的相机(内部相机)采样的图像中提取的信息可以在空间上映射到从由外部相机采样的图像中提取的信息(外部图像)。在特定例子中,从内部图像确定的驾驶员的注视方向可以在空间上映射到出现在外部图像中的车辆周围环境中的物理区域。然而,可以以其他方式使用传感器之间的空间关系。
附加地或替代地,方法100的全部或部分可以由远程计算系统(例如,远程服务器),辅助系统或任何其他合适的系统来执行。在分离计算的一种变型中,对与分心因子相关联的传感器测量值进行采样,将传感器测量值处理成分心因子值,以及基于分心因子值(例如,即将发生的,正在发生的或先前发生的分心事件)来识别分心事件可以全部由车载系统执行,而分心事件验证和应用于其他过程(例如,后处理成分心热图,过滤驾驶路线用于最佳路线等)可以由远程计算执行系统。在该变型中,车载系统可以发送与分心事件相关联的传感器测量值(例如,在分心事件之前,期间和/或之后记录的传感器测量值),与分心事件相关联的衍生信息(例如,从一个或多个传感器或其他输入类型生成的衍生信息),分心事件参数值(例如,时间,驾驶员,位置,严重性等)或到远程计算系统的任何其他合适的信息:在分心确定时立即(例如,使用通信系统)发送,在连接到高带宽连接时(例如,在连接到家庭或办公室wifi系统时)发送,或在任何其他合适的时间发送。在第二变型中,传感器测量值可以实时或近实时地传输到远程计算系统,其中远程计算系统执行方法100的其余部分。然而,方法100可以由系统的任何其他适合的集合以其他方式执行。
检测到的驾驶员分心(分心事件,分心状态)可以用在一个或多个应用中。在第一应用中,检测到的分心事件可以用于从多个行驶路线(例如,遍历路径)中过滤出被考虑用于最佳路线规划的的行驶路线(遍历路线),其中随后可以向驾驶员推荐最佳路线,用于引导自动驾驶车辆或以其他方式使用。例如,与分心事件相关联的第一路线或路线区段(或高于阈值水平的分心分数)可以从考虑中移除,而第二路线或路线区段没有相关的分心事件(或者分心事件低于阈值)可以保留以确定最佳路线。
在第二应用中,检测到的分心事件或其分数可用于动态调整通知参数。通知可以是即将发生的碰撞事件的通知,提醒驾驶员他们分心的通知,或者是任何其他合适的通知。即将发生的碰撞事件可以是对象移动进入或已经在车辆的预期遍历路径内的的预期车辆碰撞,或者是任何其他合适的碰撞事件。即将发生的碰撞事件可以由外部相机记录的图像(例如,使用对象检测,跟踪等),来自车辆传感器(例如,接近传感器,rf传感器等)确定,或以其他方式检测。在一个变型中,通知参数值(例如,音量,亮度,持续时间等)可以根据驾驶员分心分数(例如,针对即将发生的碰撞事件的检测时间计算)成比例地增加。在第二变型中,可以基于驾驶员分心分数(例如,针对即将发生的碰撞事件检测时间计算)来选择通知类型。例如,当分心分数低于阈值分数时,驱动轮可以振动,而当分心分数高于阈值分数时,可以控制车辆的音频系统发出音频通知。然而,可以基于分心分数动态地调整通知参数。
在第三应用中,可以将检测到的分心事件或其分数馈送到接近碰撞确定模块,该模块确定是否已经发生接近碰撞事件。在第四应用中,分心分数可用于确定驾驶员是否是碰撞的原因,或确定分配给驾驶员的故障百分比。例如,如果驾驶员在碰撞前的期间或碰撞前的一段时间内没有分心或者分心分数低于阈值水平,则驾驶员可以被分配比如果在碰撞之前的期间或碰撞之前一段时间内驾驶员分心或分心分数高于阈值水平的更低的故障百分比。时间段可以是恒定的持续时间,或者可以根据碰撞类型而变化。
在第五应用中,检测到的分心事件或其分数可以与驾驶员的标识符(例如,在驾驶员配置文件中)相关联地存储。此驾驶员配置文件可用于确定特定于驾驶员的通知,警报,路线或任何其他合适的信息。在一个变型中,方法100可以包括识别与给定驾驶员的更高频率的分心相关联的情境(例如,基于历史分心模式)并且自动确定最小化驾驶员的分心概率的路线(例如,最小化遇到的与分心相关联的情境的数量)(例如,使用2017年7月5日提交的美国申请号15/642,094中公开的方法识别,其全部并入本文;或任何其他合适的方法)。在第二变型中,方法100可以包括在接近历史上与驾驶员的分心事件相关联的位置时预先通知驾驶员。在第三变型中,方法100可以包括基于与驾驶员相关联的历史分心事件数据向驾驶员提供指导(例如,基于过去的行为向驾驶员提供反馈以防止未来的分心行为,在此时类似的行为模式通过该方法被确定或在其他合适的时间。然而,可以以其他方式适当地使用驾驶员配置文件。此外,可以另外适当地使用检测到的分心事件或其分数。在此和相关应用中,分数(例如,分心分数)优选地由评分模块确定,但是可以以其他方式适当地确定。
方法100和/或其块优选地由计算系统的一个或多个模块(例如,分心模块,对象分类模块,对象检测模块,评分模块,面部检测模块,任何其他合适的计算模块等)实现。多个中的每个模块可以利用以下中的一个或多个:监督学习(例如,使用逻辑回归,使用反向传播神经网络,使用随机森林,决策树等),无监督学习(例如,使用apriori算法,使用k-平均聚类),半监督学习,强化学习(例如,使用端到端学习,使用q学习算法,使用时间差异学习),以及任何其他合适的学习风格。多个中的每个模块可以实现以下中的任何一个或多个:回归算法(例如,普通最小二乘法,逻辑回归,逐步回归,多元自适应回归样条线,局部估计的散点图平滑等),基于实例的方法(例如,k-最近的邻居,学习矢量量化,自组织映射等),正则化方法(例如,岭回归,最小绝对收缩和选择算子,弹性网等),决策树学习方法(例如,分类和回归树,迭代二分法3,c4.5,卡方自动交互检测,决策树桩,随机森林,多元自适应回归样条线,梯度增强机等),贝叶斯方法(例如,朴素贝叶斯,平均单独依赖估计,贝叶斯置信网络等),核方法(例如,支持向量机,径向基函数,线性判别分析等),聚类方法(例如,k均值聚类,期望最大化等),相关的规则学习算法(例如,apriori算法,eclat算法等),人工神经网络模型(例如,perceptron方法,反向传播方法,hopfield网络方法,自组织映射方法,学习矢量量化方法等),深度学习算法(例如,受限制的boltzmann机器,深度置信网络方法,卷积网络方法,层叠自动编码器方法等),降维方法(例如,主成分分析,偏最小二乘回归,sammon映射,多维尺度,投影寻踪等),集成方法(例如,增强,自举聚合,adaboost,层叠泛化,梯度增强机方法,随机森林法等),以及任何合适形式的机器学习算法。每个模块可以附加地或替代地是:概率模块,启发式模块,确定性模块,或者是利用任何其他合适的计算方法,机器学习方法或其组合的任何其他合适的模块。
可以基于新接收的最新测量值;在操作期间记录的过去测量值;在过去的操作期间记录的历史测量值;合成数据来生成,证实,验证,增强,校准或以其他方式更新每个模块;或基于任何其他合适的数据进行更新。例如,可以使用一组合成图像来训练分心模块和/或面部识别模块,合成图像可以包括过度曝光,编辑的(例如,包括模拟来自车的框架的阴影的阴影或线条),扭曲的(例如,模拟不同的相机位置或差异),和/或以其他方式修改以模拟不同的成像条件的一组驾驶员面部的真实图像。然而,可以使用任何合适的数据集,例如使用2017年7月5日提交的美国申请号15/641,982中公开的方法生成的数据,该申请通过引用以其整体并入本文,或者数据的任何其他合适的集合。每个模块都可以运行或更新:一次;以预定的频率;每次执行该方法时;每次收到意外的测量值;或以任何其他合适的频率。该组模块可以与一个或多个其他模块同时运行或更新,依次地,以变化的频率或在任何其他合适的时间运行。
2.好处
方法100的变体可以赋予各种益处和/或优点。
首先,通过警告(例如,通知)驾驶员他或她基于驾驶员行为而可能分心或可能变得分心,该方法的变型能够避免潜在的碰撞。例如,该方法可以包括当驾驶员的注视已经漂移时(例如,超过距离车辆的行进方向的偏离大于阈值时间量的阈值角度偏离)时生成音频警报,这可以重新将驾驶员的注意聚焦在路上。
其次,该方法的变体可以使远程实体(例如,车队经理)能够同时监控多个驾驶员的表现(例如,分心等级,状态,分数等)。例如,安装在车队中的每一个中的车载系统可以独立地检测驾驶员是处于分心状态还是专心状态,并且可以将驾驶员的状态发送到与远程实体相关联的远程计算系统。
第三,该方法的变体可以实现分布式计算,用于计算系统及其模块的增强的性能。例如,该方法可以包括使用车载系统的计算模块检测驾驶员的分心状态,并且可以将第一分心状态检测的结果(和/或基础传感器数据)发送到远程计算系统以确认或反驳初始检测。因此,在前述例子中,车载系统可以避免错误否定检测(例如,车载系统可以实现用于分心的较低检测阈值和/或较不复杂的计算模型)并且快速响应于感知的驾驶员分心,同时远程计算系统可以避免可能导致对驾驶员产生负面影响的假阳性检测(falsepositivedetection)(例如,更高的保险费,丢失他或她的工作等)。
第四,该方法的变体可以实现基于情境的动作(例如,通知)。例如,传感器数据可以被馈送到多个分析模块,其中一个分析模块的输出可以用作触发事件或用作不同分析模块的二次验证。附加地或替代地,多个分析模块的结果可以被馈送到下游模块(例如,评分模块,通知模块),其中下游模块可以基于模块的输出值动态地选择动作参数(例如,通知强度,类型,开始时间,结束时间等)。在一个具体例子中,当驾驶员分心和紧跟行驶时(例如,分别来自分心模块和紧跟行驶模块的输出),可以快速呈现紧急通知,并且仅在驾驶员分心而不是紧跟行驶时,在持续检测到分心后,才能呈现警告通知。在其他例子中,当分心事件和任何其他相关交通情况的组合(例如,临近红色或黄色交通信号,临近停车标志,接近行人或车辆等)被检测到时,可以向驾驶员呈现通知。但是,可以以其他方式使用分析模块。
然而,方法100的变体可以附加地或替代地赋予任何合适的益处和/或优点。
3.方法。
方法100包括块s110,其包括:采样传感器测量值。对传感器测量值进行采样起到以采样表示驾驶员在给定时间点或时间段内分心的信号的作用。传感器测量值优选地在驾驶会话期间被采样(例如,记录),但是可替代地可以在驾驶会话之前或之后立即执行,基本上在驾驶会话之前或之后,跨多个驾驶会话,或在任何其他合适的时间执行。传感器测量值可以以预定频率(例如,2-5hz,10hz,100hz等)记录,响应于记录事件的发生而被记录(例如,当接近传感器检测到近端对象时,当车辆速度超过阈值速度时等),或在任何其他合适的时间被记录,响应于和/或基于任何合适的触发或事件。传感器测量值优选地由车载系统记录,但也可以由任何其他合适的传感器组记录。
在第一变型中,传感器测量值包括车厢内部的图像或视频(例如,图像集),其可以由朝向驾驶员侧头部体积的向内相机采样或以其他方式采样(例子在图2中示出)。例如,块s110可以包括在车辆的车载系统处对传感器测量值进行采样,其中传感器测量值包括驾驶员的图像(例如,s110a,s110′)。相机的视野优选地包括驾驶员头部的全部或一部分,并且可以可选地包括乘客侧体积的全部或一部分(例如,乘客的身体或头部),后座椅的全部或一部分,后窗的全部或一部分,驾驶员侧窗,乘客侧窗,或包括车辆内部的任何其他合适部分。图像可用于光学地识别和/或跟踪驾驶员的头部位置,头部运动,眼睛位置(例如,注视方向),眼睛运动,其参数(例如,持续时间,角度等),或确定任何其他合适的分心因子值。图像还可以用于确定驾驶情境,例如车辆中是否有乘客或乘客位于何处,可通过车窗看到的车辆周围的环境,和/或从图像中可导出的任何其他合适的情境。图像还可以用于证实或验证其他分心因子值。例如,当用户设备呈现在同时记录的图像中时,可以证实驾驶员与用户设备(例如,电话)的交互。图像可以是可见光谱图像,高光谱图像,ir图像,或者可以以任何其他合适的波长进行采样。可以使用环境光,由光发射器(例如,来自led闪光灯等)发射的光或使用任何其他合适的光源来记录图像。图像可以是立体图像(例如,由立体相机记录),单个图像,或者是任何其他合适的图像。
在第二变型中,传感器测量值包括车厢音频(例如,车辆内部噪声),其可以由布置在驾驶员体积附近的音频传感器采样(例如,与车载系统集成,与驾驶员相关的用户设备的一部分等)或以其他方式采样。车厢音频可用于推断驾驶员头部位置,驾驶情境(例如,驾驶员是否平静,车辆中是否有儿童等),或以其他方式使用。车厢音频优选地包括驾驶员音频,并且可以可选地包括乘客侧音频,后座音频,车辆音频(例如,由车辆生成),道路噪声,无线电音频,通知音频或任何其他合适的音频流。车厢音频可以是单个流(例如,由单个音频传感器记录),多个流(例如,由多个并置或远端音频传感器记录,其中车厢音频以立体声记录等),或者包括任何合适数量的音频流。
在第三变型中,传感器测量值包括用户设备操作参数,其可以由用户设备确定或以其他方式确定(例子在图2中示出)。用户设备操作参数可以包括用户设备的:处理负载(例如,从活动监视器确定,cpu负载,gpu负载等),处理负载变化,功耗,触摸输入操作,传感器测量值或任何其他合适的操作参数集。用户设备传感器测量值可以包括用户设备运动学,压力,温度,环境光障碍,或表示驾驶员与用户设备的交互的任何其他合适的参数测量值。用户设备操作参数可以由在用户设备上运行的一个或多个客户端(例如,应用,多个应用上的sdk等)确定,或者以其他方式确定。在变型的一个例子中,处理负载增加可以表示用户与用户设备的交互。在变型的第二例子中,触摸输入操作可以表示用户将数据输入到用户设备中。在变型的第三例子中,用户设备振动可以表示用户正在敲击用户设备。在第四例子中,用户设备翻译可以表示用户举起或接收(pickup)用户设备。在第五例子中,采样的用户设备环境压力或温度的增加可以表示用户设备被持有。然而,可以监视任何其他合适的用户设备参数以用于与用户设备的用户交互。
在第四变型中,传感器测量值包括车辆传感器数据,其可以由车辆确定或以其他方式确定(在图2中示出例子)。车辆传感器数据可以通过车辆数据总线从车辆接收,从车辆无线传送,或者以其他方式从车辆接收。车辆传感器数据可以包括:控制面板信号(例如,是否正在改变无线电,是否正在使用用户界面等),方向盘信号(例如,在方向盘上的触摸的数量,高压区域,高温区域),座椅传感器信号(例如,驾驶员的重量分布或随时间变化等),或任何其他合适的测量值组。但是,可以对任何其他合适的传感器测量值进行采样。
在第五变型中,传感器测量值包括车辆外部的图像或视频(例如,图像组),其可以由朝向车辆前方的向外的相机采样(例如,通过前挡风玻璃)或以其他方式采样(例如,如图2所示的例子)。相机的视野优选地包括朝向车辆前方定向的道路的全部或一部分(例如,朝向车辆前方的前景,车辆在其中移动的车道,相邻车道或多条车道等),并且可以可选地包括车辆侧面的区域(例如,驾驶员侧,乘客侧),至车辆后部,车辆上方的区域(例如,通过天窗和/或汽车天窗(moon-roof)),或包括车辆外部环境的任何其他合适部分。图像可用于光学地识别和/或跟踪车辆在环境中的位置(例如,定位车辆),车道内的位置,相对于其他对象(例如,车辆,行人等)的位置,或确定任何其他合适的参数值。图像还可以用于确定驾驶情境,例如在安放传感器的车辆的前方或旁边是否存在第二车辆。图像还可以用于确定,证实和/或验证其他分心因子值。例如,可以基于道路车道内的横向漂移的量和/或频率来测量驾驶员注意力。在车道内漂移可以基于车辆路径提取(例如,从图像或多个图像中提取车辆轨迹)以及与从道路图像提取的车道标记的比较。图像可以是可见光谱图像,高光谱图像,ir图像,或者可以以任何其他合适的波长进行采样。可以使用环境光,由光发射器(例如,来自led闪光灯等)发射的光或使用任何其他合适的光源来记录图像。图像可以是立体图像(例如,由立体相机记录),单个图像,或者是任何其他合适的图像。
在第六变型中,传感器测量值包括运动信号。运动信号优选地表示车辆的运动变量(例如,加速度,速度,位置,猛拉(jerk)等),但是可以附加地或替代地表示与车辆和/或车辆乘员相关联的任何合适的运动变量(例如,驾驶员,乘客等)。运动信号优选地通过车载系统的运动测量机构(例如,惯性测量单元)收集,但是可以附加地或替代地由任何其他合适的部件收集。在第一例子中,传感器测量值包括车载系统的惯性测量单元的加速度计输出。然而,传感器测量值可以另外包括任何合适的运动信号,车辆信息(例如,方向盘位置,踏板位置),指示器或其他信息。
方法100包括块s120,其包括:基于传感器测量值确定分心因子值。确定分心因子值的作用是表征驾驶员的注意力,分心水平或驾驶员对与驾驶车辆相关联的任务组的驾驶员注意力的其他合适的表示符。可以确定值的分心因子可以包括:驾驶员注视方向,驾驶员眼睛运动,驾驶员头部方向,驾驶员头部运动,驾驶员身体位置,车辆车厢噪声,用户设备交互(例如,电话交互,车辆控制面板交互,或者表示即将发生的,即时的或先前的驾驶员分心的任何其他合适的因子。可以同时或异步地确定一个或多个分心因子值并用于分心事件检测。
分心因子值优选地基于传感器测量值来确定,但是可以附加地或替代地被检索,接收(例如,从预处理系统或数据库),或以其他方式确定。分心因子值可以从单个传感器测量类型确定,从多个传感器测量类型(例如,使用传感器合成)确定,或以其他方式确定。附加地或替代地,可以使用第二传感器测量类型来验证所确定的因子值。
分心因子值优选地在驾驶员分心模型内被隐含地确定,但是可以附加地或替代地明确地被确定和/或以其他方式计算。在第一例子中,块s120至少部分地实现为以“端到端”方式训练的学习模块,其中输入被提供给模块并且输出被标记为正(例如,分心)或负(例如,不分心),但是由学习模块实现的模型的特性(例如,分心因子值)不是预先指定的。然而,块s120可以另外适合地实现为非学习模块,和/或实现为以任何其他合适方式训练的学习模块。
每个确定的分心因子值可以与基础传感器测量的记录时间相关联,与记录时间相关联的车辆位置(例如,使用系统定位系统,车辆定位系统等确定)相关联,与和驾驶会话和/或记录时间相关联的驾驶员(例如,如从驾驶员生物测量学确定的,驾驶员的用户设备等确定的)相关联,或与任何其他合适的并发参数相关联。然而,分心因子值可以与任何其他合适的时间,位置,驾驶员或信息相关联。
可以使用公式,回归,分类,神经网络(例如,卷积神经网络,深度神经网络),启发,选择(例如,来自库,图形或图表),基于实例的方法(例如,最近邻居),正则化方法(例如,岭回归),决策树,贝叶斯方法,核方法,概率,确定性,以上的组合,或任何其他合适的方法来确定分心因子值(例如,通过分心检测模块,其例子在图2中示出)。分心因子值可以是二元状态(例如,分心和不分心),分数(例如,分心分数等),严重性(例如,分心状态或事件导致实质损失的可能性,与分心状态相关的风险因子,等等),或者是驾驶员分心水平的任何其他合适的测量。
在特定例子中,块s120可以包括在车载系统的面部检测模块处接收传感器测量值(例如,图像)。该例子可以包括在面部检测模块处生成输出,其中输出表示在图像中存在面部(例如,s120a,s120′)。输出可以用作驾驶员分心模块的输出上的检查(check,例如,多个检查中的一个),以确定驾驶员分心模块是否错误地标记了分心事件和/或分心状态。然而,可以另外适当地使用表示图像中存在面部的第一输出(例如,识别驾驶员)。
在另一具体例子中,块s120可包括在车载系统的驾驶员分心模块处接收传感器测量值(例如,图像,图像序列等)。该例子可以包括在驾驶员分心模块处生成表示分心状态的输出(例如,s120b,s120”)。驾驶员分心模块的输出优选地与面部检测模块的输出并行地生成(例如,实时地,近实时地,同时地,同时期地,在微秒间隔内,在秒间隔内等),但是可以附加地或替代地依次地(例如,在面部检测模块的输出之前或之后)和/或与其他合适的模块的任何合适的生成的输出具有任何合适的时间关系。在进一步的替代方案中,驾驶员分心模块可以独立于面部检测模块操作,在一些变型中可以省略该面部检测模块。
在第一变型中,确定分心因子值可以包括确定驾驶员注视的参数,例如注视方向,注视持续时间,注视角度(例如,相对于参考点),注视方向的变化率,或任何其他合适的注视参数。这可以包括识别驾驶员的角膜反射,瞳孔,视网膜图案或采样图像或视频帧中的其他眼睛参数(例如,与驾驶员体积相关联的图像片段),以及使用注视估计,头部姿势确定或任何其他合适的技术确定驾驶员的注视方向。注视方向可以可选地被分类为一组预定方向(例如,前方,右侧,左侧,后方等)中的一个或以其他方式表征。附加地或替代地,可以针对每个头部姿势,持续时间或来自任何其他图像集确定注视的数量,频率,持续时间或其他参数。
在第二变型中,确定分心因子值可包括确定驾驶员的头部运动。这可以包括:
使用对象识别来识别图像内的驾驶员头部,通过一系列图像(例如,使用对象跟踪)跟踪头部(例如,识别的对象)运动,确定头部运动的参数(例如,转向,动作持续时间等)。该变型可以可选地包括基于头部运动参数确定当前或预期的头部姿势。
在第三变型中,确定分心因子值可包括确定驾驶员的头部姿势。这可以包括:
识别图像中的驾驶员头部,在驾驶员向前看时获取驾驶员头部的参考图像,并基于新图像中的驾驶员头部与参考图像中的驾驶员头部之间的差异来确定驾驶员的头部姿势。在一个示例中,这可以包括:使用对象识别来识别图像内的驾驶员头部,使用头部姿势确定方法(例如,迭代最接近的曲线匹配)确定头部姿势,并将确定的头部姿势与参考图像中的头部姿势进行比较。在第二示例中,这可以包括:使用对象识别来识别当前图像内的驾驶员头部,识别驾驶员头部上的一个或多个参考点(例如,眼睛,鼻子,痣,雀斑等),识别相应的参考图像上的参考点,并基于当前图像中的参考点位置与参考图像之间的差异来确定驾驶员的当前头部姿势。参考图像(或参考头部姿势)可以是具有车辆中的驾驶员的预先记录的图像(例如,其中在图像记录期间指示驾驶员向前注视),叠加在驾驶员头部体积内的驾驶员的预先记录的图像(例如,驾照标准图像),由在一个或多个驾驶会话上记录的多个图像合成的图像(例如,平均头部姿势),或者是任何其他合适的参考图像。该变化可以可选地包括识别车辆内的对象(例如,儿童,乘客等),确定对象在车辆内的位置,以及评估驾驶员与对象的交互。例如,当没有乘客在车辆中时,驾驶员的头部转动可以被分类为具有低分心分数的盲点检查,并且当儿童出现在相机框架内时被分类为具有高分心分数的儿童交互。然而,可以以其他方式确定头部姿势。
在第四变型中,确定分心因子值可以包括基于车厢声音确定驾驶员的头部姿势。在一个示例中,头部姿势可以由单个声音帧确定,由一组立体声麦克风记录。在该示例中,方法100可以包括:分别从来自第一和第二麦克风的第一和第二信号中提取与驾驶员语音相关联的声音信号(例如,使用模式匹配,降噪等);比较第一和第二信号之间驾驶员语音的大小(magnitude)或幅度;并确定驾驶员的头部姿势为转向测量声音较大的麦克风。在第二示例中,头部运动可以由一组立体声麦克风记录的一组声音帧确定。在一个例子中,由第一麦克风采样的声强度的减小与由第二麦克风采样的声强度的增加的配对可以被解释为头部转向朝向第二麦克风(例如,使用模式匹配等)。
附加地或替代地,车厢声音可用于确定驾驶情境。在一个例子中,车厢声音可以用于确定乘客是否存在于车辆中(例如,基于第二语音的检测),用于对乘客进行分类(例如,作为儿童,成人,潜在的分心等),用于确定乘客的位置或以其他方式使用。
在第五变型中,确定分心因子值可以包括确定与用户设备的用户交互程度(例如,频率,持续时间,强度等)。在一个例子中,方法100可以包括在用户设备处接收用户输入(例如,触摸输入,触觉输入等)并确定用户已经与用户设备交互。在第二例子中,方法100可以包括确定用户输入的参数(例如,输入的频率;输入类型,诸如目标输入或噪声输入;应用切换的频率;与之交互的应用的类型;等等)和基于用户输入参数确定用户交互程度。在特定例子中,目标用户输入(例如,精确键输入),高频率用户输入和消息传递应用可以与高度用户交互相关联,而噪声用户输入,低输入频率和地图应用可以是与低度用户交互相关联。在第三例子中,方法100可以包括识别采样信号(例如,(多个)图像)中的驾驶员身体部位(例如,手,躯干)的全部或部分,表征身体部位(例如,大小,位置,姿势,情境,动作等),并基于表征确定分心因子值。例如,高分心值可以与侧向躯干定向(例如,代替前向)相关联,在方向盘上检测到的小于手的阈值比例相关联,或者与任何其他合适的身体部位表征相关联。
确定用户与设备的交互程度可以可选地包括确定与设备交互的用户的身份。在一个变型中,可以使用用户设备测量的用户的生物测定(例如,指纹)来确定用户身份。在第二变型中,可以在交互会话期间使用用户设备在车辆内的位置来确定用户身份。在一个例子中,可以根据在用户设备与具有已知位置的一个或多个次要端点(例如,附接到a柱的信标,驾驶员体积附近的信标)之间建立的一个或多个短程连接来确定用户设备在车辆内的位置。在特定例子中,可以基于连接的强度来确定用户设备位置;例如,如果用户设备弱连接到驾驶员侧信标但是强连接到乘客侧信标,则交互会话可以被分类为乘客交互会话(而不是驾驶员交互会话)。但是,可以另外确定用户身份。确定用户与设备的交互程度可以可选地包括将用户引起的设备运动与车辆引起的设备运动过滤分开。可以使用以下方式过滤运动:同时测量的温度(例如,运动是否与环境温度的增加相关联),模式匹配(例如,使用先前与车辆运动相关联的模式,给定瞬时测量的车辆运动学),分类,或者以其他方式确定。然而,可以以其他方式将车辆运动与用户设备运动过滤分开。
在另一例子中,可以基于驾驶员的注视与外部对象的重叠或者基于驾驶员的预期注视与外部对象相对于车辆的预期位置的重叠量来确定分心因子值。在特定例子中,方法100可以包括识别外部对象(例如,从外部图像),向每个识别的对象分配碰撞风险(例如,基于车辆的运动学,计划路线等),确定驾驶员的注视方向(例如,从由面向内部的相机采样的图像),可选地确定驾驶员的视野,并且基于驾驶员的注视或视野与具有高于阈值风险值的碰撞风险的识别对象的重叠量来确定分心分数。但是,可以以其他方式使用外部信号。
在又一个例子中,可以基于驾驶员注视的对象改变的速率来确定分心因子值。例如,可以基于下降至低于阈值水平的速率来增加分心分数,这可以表示驾驶员在操作车辆时没有充分地扫描道路而是注视固定点(例如,并且可以是陷入沉思)。
然而,可以另外确定分心因子值。
方法100可以可选地包括确定分心状态的情境,其用于使得能够表征分心状态的严重性。在变型中,确定情境包括确定缩放因子值,其可以用于微调所确定的分心的严重性(例如,确定的分心分数)。附加地或替代地,缩放因子值可以用作分心确定模块的输入或以其他方式使用。
在第一变型中,可以基于车辆操作参数确定缩放因子值(图2中示出的例子)。车辆操作参数可以包括:车辆运动学(例如,速度,加速度),车辆位置,车辆通知,车辆驾驶仪器位置(例如,制动位置,加速器位置,方向盘位置,车轮位置等)或任何其他合适的操作参数。车辆操作参数可以由车辆,系统,用户设备或任何其他合适的系统确定。在一个示例中,缩放因子值可以随着碰撞概率而变化,如基于车辆操作参数所确定的。但是,可以另外确定缩放因子值。在一个例子中,可以根据车辆运动学大小来缩放分心分数(例如,当车辆移动得更快时更高,当车辆停止时更低)。在第二例子中,可以基于车辆运动学幅度(例如,车辆的速度)来选择不同的分数阈值(例如,用于确定是否记录了分心事件,以确定是否应该呈现通知等)。在第三例子中,可以基于与分心事件相关联的位置(例如,地理位置)来选择不同的缩放值(例如,权重)。分配给该位置的缩放值可以是特定于驾驶员的(例如,基于驾驶员配置文件确定的),特定于驾驶员人口统计,通用或以其他方式共享。分配给该位置的缩放值可以是静态的,动态的(例如,随着位置附近的交通,位置上游的交通等而变化),或以其他方式确定。
在第二变型中,可以基于表示驾驶环境的信号来确定缩放因子值(图2中示出的例子)。这些信号可以包括外部信号(例如,车辆周围环境的信号),内部信号(例如,车辆内部环境的信号),或任何其他合适的信号组。
外部信号可以包括交通参数(例如,交通密度,交通流动率等),道路类型(例如,高速公路或城市),交通信号(例如,道路标志,停车标志,停车灯等),对象或障碍物(例如,在预期的遍历路径中),天气条件(例如,基于天气预报或为周围环境近乎实时地确定),相邻驾驶员的配置文件,相邻驾驶员的分心水平或任何与驾驶风险相关的其他合适的外部参数。交通参数可以是众包的(例如,由输入交通信息的多个用户手动生成;从多个系统自动生成,每个系统具有外部相机等),自动确定(例如,使用由面向外部的相机采样的图像),根据车辆的位置和该位置的历史交通模式和周期时间确定,或以其他方式确定。可以基于市政地图和车辆位置确定道路类型,基于车辆速度(例如,当速度超过60mph时被分类为高速公路)确定道路类型,基于从外部图像提取的特性或对象来确定道路类型,或者以其他方式确定。
在一个例子中,当驾驶员在交通繁忙时分心时,可以将分心分数缩放得更高(例如,缩放因子可以更大)。在第二例子中,当外部图像中出现停车标志或红灯(例如,由面向外部的相机采样的图像)时,可以缩小分心分数,并且当在外部图像中没有交通标志或绿灯出现时缩放分数更高。在第三例子中,当在外部环境的图像中出现停车标志或红灯并且车辆在相对于交通信号的预定位置(例如,0英尺远,5英尺远等)速度超过阈值(例如,0mph,5mph)时,可以将分心分数缩放得更高(例如,权重增加),表示车辆正在进入需要增强注意力的场景。然而,基于任何合适的确定,可以附加地或替代地将分心分数缩放得更高或更低。
内部信号可以包括:乘客存在,乘客类型,乘客活动(例如,所有这些都可以从传感器测量值确定或以其他方式确定),车辆运动学(例如,快速启动或停止),重复时间(例如,一天,一月,一年中的时间),驾驶员日历,乘客日历或与驾驶风险相关的任何其他合适的内部参数。可以从车辆传感器,系统传感器,用户设备传感器,与用户帐户相关联的二级用户帐户(例如,通过oauth与用户帐户相关联的日历)接收内部信号,或以其他方式确定内部信号。
在第三变型中,可以基于车辆参数确定缩放因子值(图2中示出的例子)。车辆参数可以包括车辆自动类型(例如,自动,半自动,手动等),车辆类别(例如,轿车,卡车等),车辆行驶高度,车辆制动功率,车辆马力,车辆扭矩,或任何其他合适的车辆参数。可以从用户接收车辆参数(例如,由用户输入),从数据库自动确定,从车辆电子控制单元自动确定,从传感器测量值自动确定(例如,从在外部图像中看到的道路部分,通过匹配车辆内部与来自内部图像的车辆内部而确定),或以其他方式确定。在一个例子中,当车辆是完全自动驾驶的车辆时,分心分数可以大打折扣,并且当车辆是0级或1sae级自动车辆类别时,可以按比例放大。在第二例子中,可以基于车辆参数值来选择用于通知呈现,分心分数存储或用于其他应用的分心阈值。例如,可以为级别0或级别1的车辆选择第一阈值,可以为半自动车辆选择高于第一阈值的第二阈值,并且可以为自动驾驶汽车选择高于第二阈值的第三阈值。第二阈值可以更接近第一阈值而不是第三阈值,但是可以以其他方式分配阈值。然而,可以另外确定因子值和/或缩放值。
方法100包括块s130,其包括:基于因子值确定车辆驾驶员由分心状态(例如,确定驾驶员分心)为特征。基于分心因子值确定驾驶员分心用于确定给定时间段内驾驶员分心的度量。可以使用公式,回归,分类,神经网络(例如,卷积神经网络,深度神经网络),启发式,选择(例如,来自库,图或图表),基于实例的方法(例如,最近邻居),相关方法,正则化方法(例如,岭回归),决策树,贝叶斯方法,核方法,概率,确定性,以上的组合,或任何其他合适的方法来确定驾驶员分心(例如,通过驾驶员分心模块,其例子在图2中示出)。驾驶员分心可以是二元分类或二元分数(例如,分心或不分心),分数(例如,连续或不连续;与均匀分心缩放一致或不一致;等),分类(例如,高,中,低),或任何其他合适的分心测量。响应于确定事件的发生(例如,响应于车辆路径中的障碍物识别,响应于驾驶员的注视被引导到预定角度范围之外等,),可以以预定频率(例如,每5秒,连续等)确定驾驶员分心,以基于可用计算资源选择的频率,或在任何其他合适的时间确定。
驾驶员分心可以与时间或时间段,驾驶员,位置,驾驶情境,路线(例如,如图4中的例子所示)或任何其他合适的参数值相关联。与驾驶员分心相关联的参数值优选地从与用于确定驾驶员分心的驾驶员分心因子值相关联的参数值中提取,但可以是任何其他合适的参数值。例如,与所确定的驾驶员分心相关联的时间优选地是基础数据的采样时间,而不是驾驶员分心确定时间。然而,与确定的驾驶员分心相关联的时间可以是驾驶员分心确定时间或者是任何其他合适的时间。
优选地,驾驶员分心是基于分心因子值来确定,但是可以基于任何其他合适的信息来确定驾驶员分心。用于确定驾驶员分心的分心因子值优选地在预定时间段内(例如,在参考时间的2s内,其中参考时间可以是图像采样时间,位置采样时间,随机选择的时间,或者是任何其他合适的时间)被采样,但可选地,也可以是以其他方式相关的。在阈值数量的图像帧产生表示分心的分心因子值之后,优选地认为驾驶员分心(例如,以分心状态为特征),但是可替代地在来自单个帧的值表示分心之后被认为分心,当值满足预定条件(例如,超过阈值)时确定,或以其他方式确定。图像帧的阈值数量可以是预定的,动态确定的(例如,基于其他模块的输出值,例如外部障碍物接近度,面部检测,车辆运动学等),或以其他方式确定。例如,帧的阈值数量可以随着前车辆间隔减小和/或车辆速度增加而减小。图像帧的时间序列可以是连续的或不连续的(例如,与分心状态相关联的帧可以由与未分心状态相关联的帧分开),其中可以预先确定未分心帧的数量或频率,基于情境动态调整(例如,其他模块的输出值),或以其他方式确定。
在第一例子中,驾驶员分心模块可以在驾驶员向前注视时确定第一驾驶员分心分数(例如,如从内部图像确定的),并且当驾驶员正在向下或向侧面注视时,确定高于第一分数的第二驾驶员分心分数。当驾驶员注视侧面并且有吵闹的孩子在后座中时,或者当驾驶员注视远离在车辆路径中检测到的障碍物或具有与在车辆路径中检测到的障碍物不重叠(例如,从车辆接近传感器,外部图像等确定)的视野时,驾驶员分心模块可以进一步确定高于第二分数的第三驾驶员分心分数。然而,驾驶员分心模块可以在给定任何其他合适的输入组的情况下确定任何其他合适的驾驶员分心分数。
在第二例子中,驾驶员分心模块可以基于针对面部检测模块输出(例如,同时期生成,异步生成等)检查结果来确定车辆的驾驶员以分心状态为特征。在该例子中,块s130可以包括基于驾驶员分心模块的输出和面部检测模块的输出(例如,s130a,s130′)的组合来确定车辆的驾驶员以分心状态为特征。在该例子中,驾驶员分心模块确定输入数据(例如,图像数据)是否表示驾驶员分心,并且面部检测模块确定输入数据是否包括面部。对于该例子,在未检测到面部但驾驶员分心模块确定驾驶员分心的情况下,驾驶员分心模块的输出被假定为假阳性(falsepositive)。
方法100的块s130可以包括确定驾驶员分数,其可以与分心分数不同(例如,s130c)。驾驶员分数优选地是基于在先前驾驶会话和当前驾驶会话期间确定和记录的分心分数的历史的累积分数。个体驾驶员优选地具有与驾驶员相关联的单个驾驶员分数,但是可以附加地或替代地与多个驾驶员分数相关联。可以以与如上所述的其他分数(例如,分心分数)类似的方式在方法100的各种块中利用驾驶员分数,但是可以以其他方式适当地利用。驾驶员分数优选地至少部分地由评分模块确定(例如,如在s130c中,结合包括与驾驶员相关联的分心分数的时间历史的数据库等)。
在变型中,块s130可以部分地或完全地在远程计算系统处实现。在第一例子中,块s130可以包括通过向远程计算系统提供传感器测量值来检查在远程计算系统处实现的第二驾驶员分心模块处的第一分心确定的结果。在该例子中,块s130包括基于传感器测量值在远程计算系统的驾驶员分心模块处生成表示驾驶员以分心状态为特征的输出(例如,s130b)。在该例子和其他例子中,车载驾驶员分心模块可以被配置为比远程驾驶员分心模块在计算上更快但是不如其准确(例如,车载系统可以实现为具有比远程系统更少的神经元的神经网络),并且远程驾驶员分心模块可用于纠正由车载驾驶员分心模块产生的假阳性。
块s130可以包括确定分心状态的情境(例如,s130″)。可以基于如上所述的传感器测量值来确定情境,或者以其他方式适当地确定。块s130还可以包括基于分心状态的情境确定分数(例如,如上所述)(例如,s130″)。例如,确定分心状态的情境可以包括确定交通水平是稀疏的,并且交通的稀疏性可以用于加权分数(例如,由于车辆或个人损失的低风险而降低分心水平的严重性)。然而,可以另外地或替代地以其他方式适当地确定情境。
确定驾驶员分心可以可选地包括选择用于驾驶员分心确定的分心模型。当多个分心模型可用于驾驶员分心确定时,这可能是有用的。在一个变型中,可以基于分心因子值来选择分心模型。在一个例子中,可以基于用于分心因子的有限子集的分心因子值来选择分心模型,例如驾驶员的注视方向或当前车辆位置。在特定例子中,当驾驶员的注视指向前方时可以选择第一分心模型(例如,相关模型),并且当驾驶员的目光指向后方或侧面时,可以选择第二分心模型(例如,卷积神经网络或其他更复杂的模型)。在后一种情况下可以选择更复杂的模型来处理与转头的潜在原因相关的增加的复杂性。但是,可以选择任何其他合适的模型。在第二具体例子中,当车辆中存在儿童时可以选择第一分心模型(例如,相关模型),并且当车内没有孩子时可以选择第二分心模型(例如,卷积神经网络或其他更复杂的模型)。
在第二例子中,可以基于同时超过其相应阈值的分心因子的数量来选择分心模型。在特定例子中,当没有分心因子超过其阈值时可以选择第一分心模型(例如,方程)(例如,驾驶员的注视指向前方,车辆内没有分心,车辆路径中没有障碍物等),当分心因子的子集超过其阈值时,选择第二模型(例如,驾驶员的注视朝向前方并且车辆内没有干扰,但车辆路径中存在障碍物),以及当不同数量的分心因子超过其阈值时,选择第三模型(例如,驾驶员的注视指向后方,车辆内存在分心,并且车辆路径中存在障碍物)。但是,可以以其他方式选择分心模型。
方法100可以可选地包括更新分心模型。分心模型可以自动更新,手动更新或以其他方式更新。可以周期性地(例如,以预定频率)更新分心模型,响应于更新事件的发生(例如,响应于所确定的分心分数超出与实际分心分数的阈值差异),或者在任何其他适当的时间。更新分心模型可以包括:使用标记的训练数据重新训练模型或以其他方式更新分心模型。可以自动生成,手动生成或以其他方式确定训练数据。
如图3所示,在第一变型中,方法100可以包括基于在第一时间段期间采样的传感器测量值使用分心模块确定驾驶员分心分数,基于在第一时间段之后的第二时间段期间(例如,在第一时间段的预定持续时间内)采样的后续传感器测量值,识别与分心相关的事件(例如,碰撞,接近碰撞,车辆转向,突然制动等),基于分心相关事件确定实际分心分数,在第一时间段内用实际分心分数标记采样的传感器测量值,并校准或重新训练分心模块,直到确定的驾驶员分心分数基本上与实际分心分数相匹配。但是,可以以其他方式更新分心模块或模型。
方法100可以可选地包括将传感器测量值发送到远程计算系统s140。块s140用于向远程计算系统提供传感器测量值,其中传感器测量值可以通过附加或替代模块聚集和/或作用于车载系统上可用的模块。块s140优选地与传感器测量值的收集异步地执行,并且在变化中可以响应于车载系统与具有预定特征(例如,容量,上行链路速度,带宽,连接质量,等)的网络数据链路的连接,响应于确定高于阈值分心分数值的分心分数,或者响应于任何其他合适的事件。在例子中,块s140可以包括响应于确定车辆的驾驶员以分心状态为特征(例如,s140a),将传感器测量值发送到远程计算系统。然而,块s140可以附加地或替代地实时或近实时,基本上实时,同时,同时期或相对于传感器测量具有任何其他合适的时间特性来执行。
方法100可以可选地包括基于确定驾驶员分心来生成通知s150。块s150用于通知实体(例如,驾驶员,远程车队经理,乘客)已确定驾驶员分心。通知可以具有任何合适的格式,包括文本格式,音频格式,视频格式(例如,在确定分心状态的时间段期间记录的视频剪辑),或者具有任何其他合适的格式。块s150优选地在确定驾驶员分心和/或其分数或其他表征时基本上立即执行,但是可以附加地或替代地异步执行,以响应于触发事件(例如,连接到具有合适特征的网络链路)和/或与任何其他合适的时间关系。
在一个例子中,块s150可以包括在车辆的车载系统的输出处基于在块s130中确定的分心状态,分心状态的情境,以及分心状态的分数,基本上实时地通知驾驶员(例如,s150′)。在另一例子中,块s150可以包括在远程计算系统的接口处(例如,本地pc终端,与车队经理相关联并且通信地耦合到远程计算系统的用户设备等)通知车队经理,由于在响应于更新驾驶员分数(例如,实时地,异步地,等),在预定时间段(例如,一天,五分钟等)内连续确定分心状态,驾驶员的驾驶员分数已经下降到阈值以下。然而,块s150可以附加地或替代地包括以任何合适的方式生成通知,以及以任何合适的方式将通知发送和/或呈现给任何合适的实体。
在该方法的一个变型中,其例子在图5中示出,该方法可以包括采样传感器测量值,其中传感器测量值包括图像数据和信号数据(例如,时间序列信号)。该方法可以包括在多个模块处接收采样的传感器测量值,包括对象检测和分类模块,面部检测模块,分心模块和驾驶员行为模块。在该变型中,面部检测模块确定面部是否存在于输入图像中(例如,经由机器学习算法,经由任何合适的图像处理技术,霍夫变换等),并行地,分心模块基于作为分心模块的输入而接收的传感器测量值确定驾驶员分心。面部检测模块的输出(例如,表示在图像中检测到或未检测到面部的二进制输出)可用于消除分心模块的假阳性输出(例如,在未检测到面部的情况下,可以否定由分心模块输出的驾驶员分心的表示)。对象检测和分类模块,分心模块(例如,相对于面部检测模块的输出进行检查)和驾驶员行为模块(例如,基本上如2017年9月14日提交的美国专利申请序列号为15/705,043的美国申请中所述确定驾驶员和/或操作员行为,其全部内容通过引用并入本文)的输出可以在基于规则的比较器处接收,该比较器在该变型中用于确定驾驶员是否以分心状态为特征,并且还可以用于基于模块的输出确定分心程度(例如,严重性,分心分数等)。在该变型中,输入(例如,传感器测量值,上游模块的输出等)到输出的变换优选地连续地并且以实时或接近实时的方式执行,但是可以附加地或替代地以任何合适的频率执行,和/或具有任何合适的时间特性(例如,异步地,同步地,响应于触发事件,以4hz的频率,以任何合适的频率等)。
在第一具体例子中,如图6所示,方法100包括在车辆的车载系统处对传感器测量值进行采样,其中传感器测量值包括驾驶员的图像s110a;在车载系统的面部检测模块接收图像,并产生第一输出,其中第一输出表示图像中存在面部s120a;在车载系统的驾驶员分心模块处接收图像,并且在产生第一输出的同时期产生第二输出,其中第二输出表示分心状态s120b;基于第一输出和第二输出的组合,确定车辆的驾驶员以分心状态为特征s130a;响应于确定车辆的驾驶员以分心状态为特征,将传感器测量值发送到远程计算系统s140a;基于传感器测量值,在远程计算系统的第二驾驶员分心模块处产生表示驾驶员以分心状态为特征的第三输出s130b;响应于生成第三输出并且基于传感器测量值和分心状态,在远程计算系统的评分模块处计算驾驶员分数s130c。
在第二具体例子中,如图7所示,方法100包括在车辆的车载系统处对传感器测量值进行采样,其中传感器测量值包括驾驶员的图像s110′;在车载系统的面部检测模块处接收图像,并产生第一输出,其中第一输出表示图像中存在面部s120′;在车载系统的驾驶员分心模块处接收图像,并且在产生第一输出的同时期产生第二输出,其中第二输出表示分心状态s120”;基于第一输出和第二输出的组合,确定车辆的驾驶员以分心状态为特征s130′;确定分心状态的情境s130″;基于分心状态的情境确定分心状态的分数s130″′;基于分心状态,分心状态的情境和分心状态的分数,在车辆的车载系统的输出处基本上实时地通知驾驶员s150′。
系统和/或方法的示例可以包括各种系统组件和各种方法过程的每种组合和置换,其中方法过程可以以任何合适的顺序,依次地或同时地执行。
本领域技术人员将从前面的详细描述和附图和权利要求中认识到的,在不脱离所附权利要求限定的本发明的范围的情况下,可以对本发明的优选示例进行修改和改变。