本发明涉及裸眼三维显示技术领域,具体涉及基于摄像头的裸眼三维成像方法及系统。
背景技术:
目前,比较成熟的三维立体显示技术共可以分为分光立体眼镜、自动分光立体显示、全息显示技术三大类。
其中的前两类应该都是大家很熟悉的技术了,它们都采用了视差的方式来给人以3d显示的感觉:分别为左眼和右眼显示稍有差别的图像,从而欺骗大脑,令观察者产生3d的感觉。由于人为制造视差的方式所构造的3d景象并不自然,它加重了观察者的脑力负担,因此看久了会令人头痛。这两类技术的实现依附于特殊的显示设备,比如,传统的多视角三维显示时基于几何光学原理实现的,其显示设备需要制成柱透镜阵列;另外,用户还需要佩戴特殊的设备,如3d眼镜,才能观体验到3d效果。
而全息术则利用的并不是数字化的手段,而是光波的干涉和衍射,它一般只能生成静态的三维光学场景,并且对观察角度还有要求,所以就目前而言,它对于人机交互应用而言还并不适合。
虽然,国内外均有不少三维显示技术及成熟的产品,但由于图像分辨率、视觉疲劳、成本昂贵、体积庞大等诸多问题的限制,裸眼3d显示一直未能真正进入消费领域。
技术实现要素:
针对现有技术中的缺陷,本发明提供的基于摄像头的裸眼三维成像方法及系统,无需昂贵的显示设备,通过软件算法和简单的硬件即可实现裸眼3d显示,降低了裸眼三维成像技术的成本。
第一方面,本发明提供的一种基于摄像头的裸眼三维成像方法,包括:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3d引擎的相机参数间的映射关系;
所述3d引擎根据所述相机参数调整旋转显示的三维对象。
本发明提供的基于摄像头的裸眼三维成像方法,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3d眼镜等设备,能够实现裸眼3d,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3d,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3d显示技术真正进入到消费领域。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:接收第一摄像头采集的第一图像、第二摄像头采集的第二图像;根据双目立体视觉定位技术分析所述第一图像和所述第二图像,得到用户的空间坐标。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:根据kinect设备输出的数据得到用户的空间坐标。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:
根据图像采集装置输出的第一帧图像定位用户的双眼,并计算初始双眼距离;
根据所述图像采集装置实时输出的图像定位用户的双眼,并计算实时双眼距离;
根据所述初始双眼距离和实时双眼距离得到z轴坐标;
根据所述图像采集装置的视场角、双眼在实时输出图像中的位置、z轴坐标得到x轴坐标和y轴坐标。
优选地,所述空间坐标为用户的头部坐标或双眼坐标。
第二方面,本发明提供的一种基于摄像头的裸眼三维成像系统,包括:图像采集装置、处理器、存储器、显示设备;
所述图像采集装置与所述处理器连接,所述显示设备与所述处理器连接,所述处理器与所述存储器连接,所述图像采集装置与所述显示设备的位置相对固定;
所述图像采集装置用于采集用户的图像;
所述存储器中存储有可在所述处理器上运行的程序,所述处理器执行所述程序时实现以下步骤:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3d引擎的相机参数间的映射关系;
所述3d引擎根据所述相机参数调整旋转显示的三维对象。
本发明提供的基于摄像头的裸眼三维成像系统,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3d眼镜等设备,能够实现裸眼3d,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3d,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3d显示技术真正进入到消费领域。
优选地,所述图像采集装置为kinect设备。
优选地,所述图像采集装置包括第一摄像头和第二摄像头。
优选地,所述图像采集装置为摄像头。
优选地,所述显示设备为透明显示设备。
附图说明
图1为本发明实施例所提供的基于摄像头的裸眼三维成像方法的流程图;
图2为三维对象根据用户移动而发生旋转的示意图;
图3为图像采集装置与人所在平面间的空间位置关系;
图4为本发明实施例所提供的基于摄像头的裸眼三维成像系统的结构示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本实施例提供了一种基于摄像头的裸眼三维成像方法,包括:
步骤s1,根据图像采集装置实时输出数据得到用户的空间坐标。
其中,空间坐标为以图像采集装置为标定点的三维坐标,空间坐标描述了用户与图像采集装置之间的位置关系。
步骤s2,根据空间坐标以及预设的坐标变换模型,得到新的相机参数,坐标变换模型为用户的空间坐标与3d引擎的相机参数间的映射关系。
其中,3d引擎是将现实中的物质抽象为多边形或者各种曲线等表现形式,在计算机中进行相关计算并输出最终图像的算法实现的集合。
其中,相机参数与具体采用的3d引擎类型有关。本实施例中的相机参数是指用于调整通过3d引擎绘制的三维对象的显示角度的参数。相机参数包括三维坐标、视线方向等数据。
其中,坐标变换模型是通过空间几何关系将用户的空间坐标与3d引擎的相机参数关联起来。这种空间几何关系是本领域技术人员通过普通的立体几何知识就可以确定的,在此不再赘述。坐标变换模型需考虑系统中图像采集装置的布设位置,不同的布设位置使坐标变换模型千差万别,且具体的坐标变换模型不是本发明要保护的发明点,在此不做过多限定。
步骤s3,3d引擎根据相机参数调整旋转显示的三维对象。
例如,当用户在观看显示的三维对象时会不时的走动,这时图像采集装置采集到用户移动后的图像,通过图像定位用户移动后的空间坐标,根据移动后的空间坐标调整3d引擎显示的三维对象。比如,如图2所示,用户向左移动,三维对象就相应的逆时针旋转一定角度。通过上述基于摄像头的裸眼三维成像方法,可以根据用户的空间位置实时调整三维对象显示的角度、位置,使用户移动过程中看到旋转运动的三维对象,利用人眼的视觉误差形成三维成像的效果。
本实施例提供的基于摄像头的裸眼三维成像方法,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3d眼镜等设备,能够实现裸眼3d,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3d,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3d显示技术真正进入到消费领域。
其中,图像采集装置可以采用单摄像头、双摄像头或kinect设备实现。
当图像采集装置为双摄像头时,步骤s1的具体实现方式包括:接收第一摄像头采集的第一图像、第二摄像头采集的第二图像;根据双目立体视觉定位技术分析第一图像和第二图像,得到用户的空间坐标。双目立体视觉定位技术为现有技术,具体计算方法在此不再赘述。
当图像采集装置为kinect设备时,步骤s1的具体实现方式包括:根据kinect设备输出的数据得到用户的空间坐标。kinect设备包括摄像头和测距装置,可以采集拍摄范围内的图像以及图像中每个位置对应的深度数据。具体地,定位用户在图像中的位置坐标,根据深度数据和位置坐标利用几何知识就可以计算得到用户的空间坐标,具体计算方法在此不再赘述。
当图像采集装置为单摄像头时,步骤s1的具体实现方式包括:
步骤s101,根据图像采集装置输出的第一帧图像定位用户的双眼,并计算初始双眼距离。
其中,图像中的人眼定位方法采用现有技术实现,在此不再赘述。
步骤s102,根据图像采集装置实时输出的图像定位用户的双眼,并计算实时双眼距离。
步骤s103,根据初始双眼距离和实时双眼距离得到z轴坐标。
其中,z轴坐标表示的是人眼到用于显示三维对象的显示设备的垂直距离。假设采集第一帧图像时,初始双眼距离为l0,人眼到显示设备的垂直距离为z0,设人眼移动后的实时双眼距离为l,则人眼移动后得到的z轴坐标为z=l0z0/l。
步骤s104,根据图像采集装置的视场角、双眼在实时输出图像中的位置、z轴坐标得到x轴坐标和y轴坐标。
其中,如图3所示,设图像采集装置的视场角为α,图像的宽为a,则此时图像的比例尺为(2ztanα)/a,比例尺指图像中单位距离对应的真实空间中的距离。根据双眼在实时输出图像中的位置,结合比例尺可以得到x轴坐标和y轴坐标。
为了提高显示三维显示效果的逼真度,上述任一方法实施例中的空间坐标优选为用户的头部坐标或双眼坐标。
本实施例提供的方法可以在任何平面显示器上使用,包括但不限于lcd显示器、oled显示器、crt显示器、led显示器、led阵列。本实施例提供的方法还可以在任意终端、任意软件平台中使用。
本实施例还可以挂载手势识别代码,识别出手部坐标,并且进行手势操作。
基于与上述基于摄像头的裸眼三维成像方法相同的发明构思,本实施例还提供了一种基于摄像头的裸眼三维成像系统,如图4所示,包括:图像采集装置、处理器、存储器、显示设备。
其中,图像采集装置与处理器连接,显示设备与处理器连接,处理器与存储器连接,图像采集装置与显示设备的位置相对固定。
其中,图像采集装置用于采集用户的图像。
其中,存储器中存储有可在处理器上运行的程序,处理器执行程序时实现以下步骤:
步骤s1,根据图像采集装置实时输出数据得到用户的空间坐标;
步骤s2,根据空间坐标以及预设的坐标变换模型,得到新的相机参数,坐标变换模型为用户的空间坐标与3d引擎的相机参数间的映射关系;
步骤s3,3d引擎根据相机参数调整旋转显示的三维对象。
本实施例提供的基于摄像头的裸眼三维成像系统,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3d眼镜等设备,能够实现裸眼3d,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3d,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3d显示技术真正进入到消费领域。
其中,图像采集装置为摄像头。
其中,图像采集装置优选为双摄像头的结构,包括第一摄像头和第二摄像头,第一摄像头和第二摄像头并排设置,且拍第一摄像头和第二摄像头同步采集图像,通过双目立体视觉定位技术即可得到用户的空间坐标。
其中,图像采集装置优选为kinect设备。kinect设备包括摄像头和测距装置,可以采集拍摄范围内的图像以及图像中每个位置对应的深度数据。
其中,显示设备为平面显示器,包括但不限于lcd显示器、oled显示器、crt显示器、led显示器、led阵列。为了增强三维显示的逼真度,提高观看效果,显示设备优选为透明显示屏。
其中,处理器和存储器可以为任意终端、服务器、pc主机中的处理器和存储器。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。