元100及头蓝主结构单元200。
[0041]头戴单元100可以佩戴于用户头部,头戴单元100的形状可以设计为圆环形或者半球形等任意适合佩戴的形状。
[0042]头盔主结构单元200与头戴单元100固定连接,头盔主结构单元200上设有摄像单元(图1中未示出),由光学模块201及显示器202构成的显示单元,深度图像摄像头单元以及与显示器202相连接的主控电路206,其中光学模块201的个数为两个,分别与用户的两只眼睛相对。
[0043]图1所示的头戴式智能交互系统中,显示单元的显示器202为一整块显示屏,设置于光学模块201的正前方。
[0044]另一实施例中,如图2所示,显示单元的显示器202可以为两块,分别与其中的一个光学模块201相对。
[0045]显示单元中的光学模块201和/或显示器202可以被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求,用户通过光学模块201可以看到肢体的轮廓。其中,视距为显示单元所显示的虚像到眼睛的距离。
[0046]本发明实施例的头戴式智能交互系统还包括:位置传感器,设置在显示器与光学模块之间,能够实时检测显示器与光学模块之间的距离D。本发明实施例的头戴式智能交互系统中的视距与距离D存在一定的映射关系,每一距离D对应一个不同的视距,主控电路或与其连接的服务器中可以存储视距与距离D的映射关系表。根据该映射关系表,可以通过调整距离D调整视距。
[0047]举例说明,假设当前用户距离虚拟画面场景中某棵树的距离为5m(视距),显示器与光学模块之间的距离为50mm,用户想让其下一时刻距离该树的4m,需要通过主控电路查找映射关系表,得出视距为4m时显示器与光学模块之间的距离为40mm,然后驱动电机将显示器与光学模块之间的距离调整为40mm,实现视距的调节。
[0048]深度图像摄像头单元用于识别肢体实时的三维空间运动及形态及用户所处的周围环境。
[0049]其中,三维空间运动可以包括:位置、轨迹等信息。三维空间形态可以包括:肢体的各种形态,例如手指的弯曲,脚趾的弯曲,脚趾的分开及靠拢,抬腿等形态,本发明不以上述例举为限。
[0050]深度图像摄像头单元的位置可以设置在显示器202的前方、斜上方或斜下方或正上方,本发明不以此为限。如图1所示,深度图像摄像头单元包括光飞行时间模块203、结构光模块204及立体视觉模块205三者中的一个或多个,即光飞行时间模块203、结构光单元204及立体视觉单元205三者中任一者可以单独工作,也可以与另外的两者或者一者相互配合工作。其中,光飞行时间模块203、结构光模块204及立体视觉模块205用于采集肢体形态及肢体间的动作配合。光飞行时间模块203、结构光模块204及立体视觉模块205均可以识别肢体实时的三维空间运动及形态及用户所处的周围环境。肢体实时的三维空间运动及形态包括头戴式智能交互系统的用户的肢体(可以包括四肢、头部甚至腹部胸部)的三维空间运动及形态。用户所处的周围环境可以包括用户所处的三维空间状况,包括周围的运动的人和/或物,也可以包括静止的物,如果桌椅板凳、树、建筑物等。
[0051]如图2所示,用户可以通过虚拟键盘206输入信息。
[0052]本发明实施例中的头戴式智能交互系统预设3D操作区域(虚拟空间控制区域)30为与应用场景对应的各种空间结构,例如为圆柱体、四面体、六面体等。
[0053]虚拟空间控制区域301可以具有一定的宽度W、高度H和厚度T,如图3及图4所示。用户通过光学模块201看到肢体的轮廓,肢体的轮廓包括用户肢体的真实动作轮廓及数字动作轮廓。具体实施时,摄像单元及深度图像摄像头单元先拍摄肢体的真实动作轮廓及数字动作轮廓,然后播放,用户通过光学模块201就可以看到肢体的轮廓,肢体的轮廓包括用户肢体的真实动作轮廓及数字动作轮廓。
[0054]在某些具体的应用场景中,用户通过显示单元可以看到一预设的3D操作区域,通过肢体该触碰3D操作区域的对应位置,可以触发一或多个指令。例如,手指触碰3D操作区域的某个按钮,可以发射手雷。
[0055]图3及图4中的标号302为用户眼中所成的像,即用户通过显示单元看到的肢体的真实动作轮廓及数字动作轮廓。另外,通过光学模块201,用户还可以在302所在的区域看到虚拟键盘303,投影的虚拟键盘303的位置可以是可调的,虚拟键盘206的投影角度与竖直方向的夹角可以是任意角度。
[0056]当用户的肢体操作3D操作区域301时,用户通过光学模块201可以在302所在区域看到肢体的轮廓。如图5所示,当用户用手指触碰到3D操作区域301中的操作区域501时,将会在302所在的区域看到,用户手指的轮廓,该轮廓对应区域502。
[0057]上述空间形状为虚拟空间控制区域301具有一定的空间体量的情况。虚拟空间控制区域301也可以没有具体的空间区域,只要人四肢能伸展的距离都可以进行肢体采集。肢体的动作可以是多点触碰也可以是单点触碰,当肢体发出指令动作时,头戴式智能交互系统会进行实时采集,并触发相应的操作。
[0058]另外,虚拟空间控制区域301的中心位置可调,即虚拟空间控制区域301与用户头部的相对位置(空间角度、空间距离)是可以根据需要进行改变的。
[0059]头盔主结构单元200上设有摄像单元的数量可以有多个,如图6所示,可以包括:第一摄像单元303,该第一摄像单元303设于头盔主结构单元200的下方,可以用于拍摄肢体的视频和/或照片。也可以检测到用户手、手指或肢体的运动、状态和位置,当检测到手、手指或肢体的动作,从而会通知头戴式智能交互系统,以根据其运动、状态和位置进行相应的操作。
[0060]第一摄像单元303拍摄的视频的部分或全部可叠加在显示器的虚拟画面之上。第一摄像单元303拍摄的视频既包括周围的环境(树木、桌椅等),也包括肢体的真实动作轮廓。虚拟画面为具体场景的画面,如电影、游戏中的的画面场景。第一摄像单元303拍摄的视频中,可以只将周围的环境叠加在显示器的虚拟画面之上,也可以仅将肢体的真实动作轮廓叠加在显示器的虚拟画面之上,还可以将周围的环境及肢体的真实动作轮廓均叠加在显示器的虚拟画面之上,具体实施时可以根据不同的场景进行选择。
[0061]假设外部拍摄视频画面为图层一,用户眼中所成的像(虚拟画面)为图层二,用户直接全部看到图层一实现的是一种全透视效果,图层一、二的切换显示,可以用于用户在虚拟和现实世界之间的视觉切换。并且,图层一的透明度百分比可改变,用于用户看到显示画面和虚拟画面的叠加效果,透明度越高虚拟世界越清晰。透明度越低现实世界画面越清晰。
[0062]不同用户眼睛具有不同的瞳距,不同场景下具有不同的视距,比如一个视力正常的人和一个近视的人看到的影像清晰度就不同,如果固定结构,则不一定会使用户体验到最佳的观看效果;基于此,本发明的光学模块201和/或显示器202可以被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求。
[00