一种针对于虚拟现实设备的全景3d视频生成方法
【专利摘要】本发明公开了一种针对于虚拟现实设备的全景3D视频生成方法,包括:用广角相机阵列拍摄场景视频并经过拼接算法生成全景视频;用深度相机阵列拍摄场景的深度图并经过拼接算法生成全景深度图视频。通过实时检测人的头部位置,在全景视频帧中切割相应位置的图像作为左视点的视频;根据左视点的图像和相应的深度图基于虚拟视点合成技术外插生成右视点图像,这两幅图像拼接为左右3D视频,在虚拟现实设备中显示。本发明通过在虚拟现实设备显示的全景视频中,加入视点合成技术,使观看者能看到全景视频的3D效果,增加了场景的逼真性,进而提升了观者的体验感。
【专利说明】
一种针对于虚拟现实设备的全景3D视频生成方法
技术领域
[0001] 本发明涉及计算机视觉与数字图像处理领域,特别涉及一种针对于虚拟现实设备 的全景3D视频生成方法。
【背景技术】
[0002] 虚拟现实技术通过实体与三维实时视景的交互,营造出一种逼近真实的虚拟世 界,被认为是一种改变人们生活方式的新技术,因而具有广阔的发展前景。人在真实的世界 中,因其左右眼的视差让人对眼前的场景具有立体感。但是,一般的VR显示内容都是一个视 点下的全景视频,此内容在VR设备显示时,因左右眼视频看到的是相同的图像故不能给观 者以立体感。如果能基于一个视点下的全景视频,自动渲染出人眼在另一个视点下的相应 视频,就能大大增加虚拟世界的真实性,进而推动虚拟现实技术的普及应用。
【发明内容】
[0003] 本发明的目的在于提出一种全景3D视频生成方法,提高人们体验虚拟现实技术时 的真实感。
[0004] 为此,本发明提出的
[0005] 本发明通过在虚拟现实设备显示的全景视频中,加入视点合成技术,使观看者能 看到全景视频的3D效果,增加了场景的逼真性,进而提升了观者的体验感。
【附图说明】
[0006] 图1为本发明实施例一种针对于虚拟现实设备的全景3D视频生成方法流程图;
[0007] 图2为本发明实施例根据人的头部姿态对全景视频相应位置进行切割的说明图;
[0008] 图3为本发明实施例Madgwick互补滤波融合算法框架示意图。
【具体实施方式】
[0009] 如图1所示,本实施例提出的一种针对于虚拟现实设备的全景3D视频生成方法,包 括:用广角相机和深度相机拍摄场景生成一个视点下的全景视频和全景深度图视频。佩戴 的虚拟现实设备如Oculus,通过自身的传感器实时检测人的头部姿态,可以调用开发包中 的相应函数,获得头部坐标系相对于地面坐标系的俯仰角、偏航角和滚转角,在全景视频帧 中切割相应位置的图像作为左视点的视频;根据左视点的图像和相应的深度图基于虚拟视 点合成技术外插生成右视点图像,这两幅图像拼接为左右3D视频,在虚拟现实设备中显示。
[0010] 图1中,相机阵列和深度相机阵列采用环形排列,各个相机采集到的视频经过全景 视频拍摄软件PTGui进行全景视频的拼接。拼接成的全景视频作为左视点视频的切割来源, 通过调用虚拟现实头盔的编程接口获得头部相对于地球坐标系的姿态,切割全景视频得到 显示屏上的左视点视频,然后通过视点合成算法得到右视点视频,最后在虚拟现实设备上 进行3D播放。
[0011] 各个步骤的详细说明如下:
[0012] 广角相机阵列拍摄场景视频并经过拼接生成全景视频,视频拼接的工作采用 Helmut Dersch公司推出的PTGui可视化的全景视频制作工具,其能给出高质量的全景视 频。
[0013] 用深度相机阵列拍摄场景的深度图并经过拼接算法生成全景深度图视频,其过程 与生成全景视频的步骤相同。
[0014]通过实时检测人的头部位置,在全景视频帧中切割相应位置的图像作为左视点的 视频。虚拟现实设备的自身可以利用其内置的陀螺仪、加速度计和磁力计经过数据融合算 法可以得到头部的三维姿态,具体的融合算法采用Madgwick互补滤波融合算法,其算法框 架如图3所示,算法的具体细节如下面文档所述:http : //www . x_io . co . uk/res/doc/ madgwick-internal-report.pdf〇
[0015]然后根据计算出来的姿态,从全景视频帧中切割出相应位置的视频作为左视点的 视频。具体过程如附图2所示,图2中,圆柱是由PTGui软件拼接成的全景视频,r是相机的剪 切平面,〇是人眼的位置,s是虚拟现实设备显示屏的中心点,T是当前头部姿态下显示屏中 心应显示的全景视频的像素点。根据人眼的位置和相机成像平面的距离我们可以算出显示 屏〇处应显示全景视频的T像素点。假设人眼坐标系与相机坐标系初始重合,os距离是人眼 到屏幕的垂直距离,显示屏的高度是d。现在人抬头上看,上一步中算出的俯仰角是a,则T的 位置如下面公式计算得出,
[0017]以此类推,可以算出显示屏上的每个点在全景视频上对应的应显示像素点。
[0018] 根据左视点的图像和相应的深度图基于虚拟视点合成技术外插生成右视点图像, 具体包括左参考视点向右参考视点的映射和映射后图像的空洞填补。映射的过程如何如 下:
[0019] 首先根据下述公式,把左视点图像映射到原始标定摄像机和物体位置的三维坐标 系(此三维坐标系由参数R,T,K唯一标示),
[0020] Yir =i?;1-(z,.K;1 vr -I ) k'J lu
[0021] 其中,R,T,K分别是左视点图像坐标系相对于三维坐标系的旋转矩阵,平移矩阵和 相机内部参数矩阵,r代表左视点,W代表三维坐标系,Z为深度值,1!和¥分别为左视点图像中 像素点的横纵坐标,X,Y和Z分别为左视点图像中相应像素点映射在三维坐标系中的三个坐 标。
[0022]然后通过下面公式,把三维坐标系的图像投影到右视点坐标系上:
[0023] 2r vv = Kv Rx Ya +7; lu l UJ J
[0024] 上述公式中的r,v分别代表左视点和右视点。映射后图像中的空洞像素点用最邻 近的背景像素点进行填补。这两幅图像分别作为左右视点送到虚拟现实设备的现实端进行 3D显示。其中,深度图用在了公式中的深度值z。
[0025] 上述实施例只是为了对本发明进行举例说明,并非限制本发明的权利范围。
【主权项】
1. 一种针对于虚拟现实设备的全景3D视频生成方法,其特征在于,包括如下步骤: 51、 拍摄场景视频并经过拼接算法生成全景视频; 52、 拍摄场景的深度图并经过拼接算法生成全景深度图视频; 53、 通过实时检测人的头部位置和姿态,在全景视频帧中切割相应位置的图像,各帧的 切割图像连起来形成左视点的视频; 54、 根据左视点的图像和相应的深度图,基于虚拟视点合成技术外插生成右视点图像; 55、 左视点视频和右视点视频拼接为左右3D视频,在虚拟现实设备中显示。2. 如权利要求1所述的方法,其特征在于,步骤S1中,用广角相机阵列拍摄场景视频;步 骤S2中,用深度相机阵列拍摄场景深度视频,并经过视频拼接软件拼接成全景视频。3. 如权利要求1所述的方法,其特征在于,步骤S3中,实时检测人的头部位置和姿态的 方法是:虚拟现实设备的自身利用其内置的陀螺仪、加速度计和磁力计经过数据融合算法 可以得到头部的位置和三维姿态。4. 如权利要求1所述的方法,其特征在于,步骤S3中,切割方法为:根据人眼的位置和相 机成像平面的距离我们可以算出显示屏〇处应显示全景视频的T像素点:其中r是相机的剪切平面,〇是人眼的位置,s是虚拟现实设备显示屏的中心点,T是当前 头部姿态下显示屏中心应显示的全景视频的像素点,假设人眼坐标系与相机坐标系初始重 合,os距离是人眼到屏幕的垂直距离,显示屏的高度是d,上一步中算出的俯仰角是α; 以此类推,算出显示屏上的每个点在全景视频上对应的应显示像素点。5. 如权利要求1所述的方法,其特征在于,步骤S4中,根据左视点的图像和相应的深度 图基于虚拟视点合成技术外插生成右视点图像的方法包括左参考视点向右参考视点的映 射和映射后图像的空洞填补。6. 如权利要求5所述的方法,其特征在于,映射的过程如何如下: 首先根据下述公式,把左视点图像映射到原始标定摄像机和物体位置的三维坐标系, 此三维坐标系由参数R,Τ,Κ唯一标示,其中,R,T,K分别是左视点图像坐标系相对于三维坐标系的旋转矩阵,平移矩阵和相机 内部参数矩阵,r代表左视点,W代表三维坐标系,Z为深度值,1!和¥分别为左视点图像中像素 点的横纵坐标,X,Y和Z分别为左视点图像中相应像素点映射在三维坐标系中的三个坐标。7. 如权利要求5所述的方法,其特征在于,映射的过程还包括如下步骤:通过下面公式, 把三维坐标系的图像投影到右视点坐标系上:上述公式中的r,v分别代表左视点和右视点。8. 如权利要求5所述的方法,其特征在于,映射后图像中的空洞像素点用最邻近的背景 像素点进行填补。9. 如权利要求2所述的方法,其特征在于:相机阵列和深度相机阵列采用环形排列,各 个相机采集到的视频经过全景视频拍摄软件PTGui进行全景视频的拼接。10. 如权利要求3所述的方法,其特征在于:所述融合算法采用Madgwick互补滤波融合 算法。
【文档编号】H04N13/00GK105959665SQ201610296758
【公开日】2016年9月21日
【申请日】2016年5月5日
【发明人】金欣, 刘站奇, 张新, 戴琼海
【申请人】清华大学深圳研究生院, 深圳市未来媒体技术研究院