一种基于个体化HRTF立体声的视觉辅助方法与设备与流程

文档序号:20455019发布日期:2020-04-17 23:55阅读:756来源:国知局
一种基于个体化HRTF立体声的视觉辅助方法与设备与流程

本发明涉及三维环境感知技术以及空间音效技术,特别涉及头相关传递函数hrtf体声的视觉辅助技术。



背景技术:

双目摄像头的视觉辅助设备主要运用双目视觉技术,使用可见光或红外波段对环境进行成像。双目视觉技术依赖于环境中纹理的复杂程度,对于简单场景,或场景有积水或镜面干扰时会失效。双目视觉技术的原理要求双摄像头在设备上安装时存在最小距离限制,且以高刷新率进行识别时其计算能力需求对于现有的便携式视觉辅助设备的供电、散热与电池容量要求高,不利于设备的防水密封与小型化、轻量化设计。

传统的电子式视觉辅助设备完全依赖摄像头对物体进行识别,在物体因距离过近、短暂受到其他物体的干扰或因用户运动而离开摄像头视野时立即失去对物体的跟踪能力。

使用语音提示与用户进行交互的视觉辅助设备,通常播报物体的方位、距离与类型,需要消耗大量时间,传递的信息量少,不能随用户发生的运动及时修正该播报内容,造成延迟且存在事故风险。而使用不同音色与音量进行播报的交互方式不够直观,用户需要进行学习与适应,且能够表达的方位有限。

头相关传递函数(headrelatedtransferfunction,hrtf)是一种立体空间声音定位的处理技术,用于描述声波从声源到双耳的传输过程,是声音向我们传来时,对应于我们头部的相位与频率响应。



技术实现要素:

本发明所要解决的技术问题是,提供一种通过环境数据采集将描述物体类型的音频使用经个体化配置的hrtf处理为空间音效的视觉辅助方法与设备。

本发明为解决上述技术问题所采用的技术方案是,一种基于个体化hrtf立体声的视觉辅助方法,包括以下步骤:

1)采集数据接收步骤:实时接收彩色摄像头输入的彩色图像、深度摄像头输入的深度图像以及惯性测量单元输入的加速度和姿态角读数;

2)彩色图像的处理步骤:利用已训练完成的神经网络对彩色图像进行物体检测,识别出当前物体类型与得到物体所在的矩形边框,之后将该矩形边框的尺寸与已存储的该物体类型对应尺寸的参考值进行比对,计算得到物体到设备的粗略距离drgb;当前物体类型为利用神经网络对彩色图像进行物体检测时输出的识别概率最高的物体类型;所述备选物体类型为识别概率较当前物体类型低的其它物体类型;

3)深度图像处理步骤:计算物体在深度图像中的位置,再根据深度图像中该位置的深度信息作为物体到设备的准确距离dtof;

4)对物体类型的再次判断:判断准确距离与粗略距离之间的差值是否大于预设值,如是,进入步骤5)进行备选物体类型判断,否则,将当前物体类型作为确定的物体类型并用(∠x,∠y,dtof)作为物体的初始相对位置,将确定的物体类型存入物体信息队列;其中,∠x,∠y为物体相对彩色摄像头的x轴偏移角度∠x与y轴偏移角度∠y;

5)备选物体类型判断步骤:在备选物体类型中选择其准确距离与粗略距离差值小于等于预设值的物体类型作为确定的物体类型并将确定的物体类型存入物体信息队列,如没有备选物体类型或者没有备选物体类型的准确距离与粗略距离差值小于等于预设值,则认为物体类型识别失败;

6)绝对位置坐标生成步骤:根据姿态角读数中偏航角∠imuyaw和俯仰角∠imupitch分别生成物体在x轴和y轴上的绝对方向∠xabs和∠yabs,∠xabs=∠x+∠imuyaw,∠yabs=∠y+∠imupitch,用(∠xabs,∠yabs,dtof)作为物体的绝对位置坐标pobj-abs,并将绝对位置坐标pobj-abs存入物体信息队列;

7)相对位置的更新步骤:当已经在物体信息队列中的物体再次被识别到时,直接使用(∠x,∠y,dtof)作为进行更新的相对位置pobj,并根据新的测量结果对物体信息队列存放的绝对位置进行修正,而在图像处理的帧间或该物体脱离彩色或深度摄像头工作范围的设定时间长度内,通过利用来自惯性测量单元的加速度和姿态角得到用户位置改变信息pmove,从而计算物体当前的空间位置pobj-now=(pobj-abs-pmove),再将物体当前的空间位置pobj-now根据当前的偏航角∠imuyaw和俯仰角∠imupitch进行旋转得到更新的相对位置pobj;

8)虚拟声源的生成步骤:将更新的相对位置pobj根据存储的个体化头相关传递函数hrtf配置进行映射得虚拟声源位置p′obj,将虚拟声源位置p′obj以及物体类型作为虚拟声源信息通过立体声耳机接口输出。

将上述方法通过一个小型计算机实施,从而提供一种基于个体化hrtf立体声的视觉辅助设备,包括彩色摄像头、深度摄像头、惯性测量单元、支架和带有立体声耳机接口的小型计算机,彩色摄像头、深度摄像头、惯性测量单元与带有立体声耳机接口的小型计算机均固定在支架上;彩色摄像头和深度摄像头的两个光轴相互平行,且安装于支架的前端;彩色摄像头、深度摄像头和惯性测量单元分别与小型计算机相连;小型计算机存储有训练完成的用于物体检测的神经网络、各类物体对应尺寸的参考值、个体化头相关传递函数hrtf配置信息;

彩色摄像头采集彩色图像输出至小型计算机;深度摄像头采集深度图像输出至小型计算机;惯性测量单元用于采集加速度和姿态角读数输出至小型计算机。

本发明利用惯性测量单元、深度摄像头与彩色摄像头进行环境数据采集,利用小型计算机对数据进行处理得到所识别物体的类型、方向与距离,最后将描述物体类型的音频使用经个体化配置的hrtf处理为空间音效,可以用于头戴式游戏,也可以对视觉障碍人士进行方向指引的视觉辅助。

本发明的有益效果是,相比现有的视觉辅助设备:

1.环境适用性强。由于使用的3d-tof摄像头通过红外波段激光光源获取场景信息,该方法不存在双目视觉技术对场景中可见光波段的纹理复杂程度的要求,在简单、复杂场景均可使用,其结果也不受到环境光干扰,在白天和夜间均可使用。

2.便携性好。由于结合3d-tof与rgb摄像头对物体进行测距,该方法不存在双目视觉技术的双摄像头最小安装间距限制与同时处理两路高清视频信号的计算性能要求,设备内部结构紧凑,体积相比双目视觉技术的方案小,计算能力、散热、电力供应需求降低,提高了设备的使用时长。

3.物体位置追踪连续性。由于使用惯性测量单元对用户的运动进行测量,在物体因用户运动处于摄像头所识别范围外,如在用户侧面或背面、被其他物体短暂遮挡、或在物体因观测角度原因暂时无法被识别到时,继续提供对物体的位置指示,用户无需时刻保持摄像头对准需要追踪的物体。

4.易理解性。相比复杂的语音方位描述,本发明直接将描述物体类型的简短单声道语音信号转化为具有空间感的立体声信号,物体的位置指示直接附加在物体类型描述的音频信号上,并直接在用户的听觉中生成直观的声源位置,用户无需学习复杂的语音位置描述规则。

5.运动反馈的即时性。在播放过程中该虚拟声源位置也会随着惯性测量单元获得的运动数据进行每秒大于100次的实时修正,用户不会因运动或转向而得到不及时的或错误的方向指示。

6.空间音效准确性。使用基于hrtf的个体化立体声信号,hrtf立体声相比传统的抵达时间延迟(itd)立体声考虑了头部与耳部的物理结构对声音频域的细微影响,个体化的hrtf配置则为每一个用户建立虚拟声源位置映射,将虚拟声源位置在生成立体声信号前进行调整,以抵消因头部与耳部的个体差异产生的误差,进一步提高空间音效的指向准确性,因此能为视觉障碍用户提供准确的全向位置指示。

附图说明

图1为实施例视觉辅助设备的结构示意图;

图2为实施例视觉辅助设备的硬件连接示意图;

图3为实施例视觉辅助设备的软硬件模块协同方式示意图。

具体实施方式

如图1、图2所示,一种基于rgb与3d-tof摄像头、惯性测量单元与个体化hrtf立体声的视觉辅助设备,所述设备包含一个rgb摄像头、一个3d-tof摄像头、一个惯性测量单元、一个usb集线器、一个支架、一个带有立体声耳机接口的小型计算机、一个电池模块。所述一个3d-tof摄像头、一个rgb摄像头、一个惯性测量单元、一个usb集线器均固定于支架上,其中,rgb摄像头与3d-tof摄像头的两个光轴相互平行,并安装于支架的前端;3d-tof摄像头、rgb摄像头与惯性测量单元通过usb集线器与小型计算机相连,电池模块与小型计算机相连。3d-tof摄像头通过vcsel光源完成测距,获得图像的深度信息。

如图3所示,小型计算机中内置的神经网络模型对rgb摄像头的彩色图像进行物体检测,获得物体类型与其在图像上的矩形边框。该矩形边框的尺寸被用于与对应类型物体在rgb图像上在不同距离下得到的参考尺寸进行对比,得到其粗略距离,随后进一步对比其与由3d-tof摄像头得到的深度图像上对应位置的精确距离,以调整识别到的物体类型;该矩形边框的中心位置被转换为物体的方向向量,根据深度图像在该方向上的距离得到相对位置,再比对惯性测量单元的读数得到物体的绝对位置,随后将其存入一个物体信息缓存队列。物体信息缓存队列中的绝对位置先根据惯性测量单元的运动追踪数据转换为相对位置,并经过用户的个体化hrtf配置进行映射修正,得到生成hrtf立体声信号所需虚拟声源坐标,在图像处理的帧间或物体处于摄像头工作范围之外时由惯性测量单元继续对物体提供虚拟声源位置修正,最终将描述物体类型的单声道音频在频域与该虚拟声源位置对应的hrtf相乘,得到具有空间感的立体声指示信号,并输出到小型计算机的立体声接口,为视觉障碍用户提供准确的即时全向位置指示。

上述设备通过以下方法实现对视觉障碍人士进行物体的类型与位置指示:

(1)通过小型计算机内置的神经网络模型对rgb摄像头传入的彩色图像进行目标检测,分析得到主要的物体类型信息与其在彩色图像上的矩形边框坐标(x1,y1),(x2,y2),其矩形边框中心为

(2)根据rgb摄像头的视场角∠xfov与∠yfov以及分辨率xmax,ymax获得物体的相对摄像头光轴的方向,其x轴偏移角度为y轴偏移角度为

(3)根据目标检测得到的矩形边框在图像上的半径随后将rrgb与内置数据库中对应物体类型在不同标准距离下在彩色图像上的大小依次比对并进行线性插值,获得物体粗略距离drgb。

(4)根据x轴与y轴的偏移角度∠x,∠y,以及3d-tof摄像头视场角∠x′fov与∠y′fov以及分辨率x′max,y′max,得到该物体在深度图像上对应的位置并根据该位置上的深度信息得到根据深度图像的物体距离dtof,当dtof与drgb的值相差过大时,将识别到的物体类型替换为神经网输出结果中可能性较低的其他选项并重新计算drgb,直到dtof与drgb的差值低于设定的阈值,或在dtof与drgb的差值无法通过调整识别到的物体类型降低至阈值以下时忽略该识别到的物体。

(5)将该物体对应的相对设备光轴的方向偏移∠x,∠y与物体的距离dtof得到物体相对设备的位置空间坐标pobj。

(6)将该物体对应的相对设备光轴的方向偏移∠x,∠y与惯性测量单元的姿态角读数∠imuyaw,∠imupitch相加,得到物体的绝对方向∠xabs=∠x+∠imuyaw,∠yabs=∠y+∠imupitch,再根据物体的距离dtof得到物体的绝对位置空间坐标pobj-abs并存入物体信息队列。在图像处理的帧间,或该物体脱离rgb或3d-tof摄像头工作范围,如距离过近、被其他物体短暂遮挡或设备转动较大角度时,在一定时间内通过惯性测量单元对加速度和设备姿态角进行测量,通过用户位置改变pmove得到物体当前的空间位置pobj-now=(pobj-abs-pmove),再将pobj-now根据当前的设备姿态角∠imuyaw、∠imupitch进行旋转得到新的物体相对位置pobj。

(7)将物体相对位置pobj根据设备初始化时设定的个体化hrtf配置进行映射,得到hrtf立体声所需的虚拟声源位置p′obj。

(8)将描述该物体类型的单声道音频信号载入缓冲区,并与p′obj所对应的hrtf在频域上相乘得到具有空间感的立体声信号,输出到小型计算机的立体声耳机接口,为用户提供连续的物体类型与位置指示。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1