真实环境画面中虚拟道具的显示方法、系统及存储介质与流程

文档序号:23763092发布日期:2021-01-29 19:23阅读:78来源:国知局
真实环境画面中虚拟道具的显示方法、系统及存储介质与流程

[0001]
本申请实施例涉及人机交互技术领域,特别涉及一种真实环境画面中虚拟道具的显示方法、系统及存储介质。


背景技术:

[0002]
增强现实(augmented reality,ar)技术是一种将虚拟内容与真实世界融合的技术,将计算机设备生成的文字、图像、三维模型、音乐、视频等虚拟内容模拟仿真后,叠加显示在真实环境中,而虚拟现实(virtual reality,vr)技术则是根据从现实环境中采集的数据模拟出虚拟环境和虚拟内容。用户可以利用头戴式设备体验对ar内容或vr内容的多种操作。
[0003]
相关技术中,用户通过头戴式设备完成各项操作时,通过头戴式设备中的功能按键触发相应操作,当头戴式视听设备聚焦在某一虚拟对象时,对该虚拟对象进行高亮显示,从而使用户通过预设操作使头戴式视听设备执行相应指令。
[0004]
然而,相关技术中的交互方式不便于用户快速完成操作,需要寻找相应的按键,对于通过高亮显示确定聚焦对象的方式,用户需要观察各个虚拟对象的显示状态才能确定聚焦位置,并且需要边控制设备姿态边观察虚拟对象显示状态的变化情况,才能够将聚焦位置移动至目标虚拟对象,操作学习成本高且效率低。


技术实现要素:

[0005]
本申请实施例提供了一种真实环境画面中虚拟道具的显示方法、系统及存储介质。所述技术方案如下:
[0006]
一方面,本申请实施例提供了一种真实环境画面中虚拟道具的显示方法,所述方法用于头戴式设备,所述方法包括:
[0007]
在真实环境画面上叠加显示场景编辑界面和虚拟射线,所述场景编辑界面中包含道具选择列表,所述道具选择列表中包含至少一种虚拟道具对应的道具选择控件,所述虚拟射线用于指示控制操作的触发位置;
[0008]
基于获取到的射线调整数据在所述真实环境画面中移动所述虚拟射线;
[0009]
响应于所述虚拟射线与目标道具选择控件相交,且接收到第一控制指令,在所述真实环境画面中显示所述目标道具选择控件对应的目标虚拟道具。
[0010]
另一方面,本申请实施例提供了一种真实环境画面中虚拟道具的显示装置,所述装置包括:
[0011]
第一显示模块,用于在真实环境画面上叠加显示场景编辑界面和虚拟射线,所述场景编辑界面中包含道具选择列表,所述道具选择列表中包含至少一种虚拟道具对应的道具选择控件,所述虚拟射线用于指示控制操作的触发位置;
[0012]
第一调整模块,用于基于射线调整数据在所述真实环境画面中移动所述虚拟射线;
[0013]
第二显示模块,用于响应于所述虚拟射线与目标道具选择控件相交,且接收到第一控制指令,在所述真实环境画面中显示所述目标道具选择控件对应的目标虚拟道具。
[0014]
另一方面,本申请实施例提供了一种真实环境画面中虚拟道具的显示系统,所述真实环境画面中虚拟道具的显示系统包括头戴式设备和控制设备,所述头戴式设备与所述控制设备之间建立有数据连接;所述控制设备用于向所述头戴式设备发送控制指令以及虚线调整数据;所述头戴式设备包括处理器和存储器;所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述方面所述的真实环境画面中虚拟道具的显示方法。
[0015]
另一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述程序代码由处理器加载并执行以实现如上述方面所述的真实环境画面中虚拟道具的显示方法。
[0016]
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。头戴式设备或控制设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该头戴式设备或控制设备实现上述方面的各种可选实现方式中提供的真实环境画面中虚拟道具的显示方法。
[0017]
本申请实施例提供的技术方案带来的有益效果至少包括:
[0018]
本申请实施例中,通过实时显示虚拟射线,并基于射线调整数据移动显示虚拟射线,以指示控制操作的触发位置,使用户能够通过观察虚拟射线的位置和方向实时掌握触发位置,用户只需使虚拟射线与虚拟道具、控件等需要控制的对象相交,即可快速通过头戴式虚拟设备控制虚拟道具,提高了虚拟道具的控制效率和操作的准确性。
附图说明
[0019]
图1是本申请一个示例性实施例提供的头戴式设备的示意图;
[0020]
图2是本申请另一个示例性实施例提供的头戴式设备的示意图;
[0021]
图3是本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示系统的示意图;
[0022]
图4是本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图;
[0023]
图5是本申请一个示例性实施例提供的场景编辑界面和虚拟道具的示意图;
[0024]
图6是本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图;
[0025]
图7是本申请一个示例性实施例提供的移动虚拟道具的示意图;
[0026]
图8是本申请一个示例性实施例提供的编辑虚拟道具的示意图;
[0027]
图9是本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图;
[0028]
图10是本申请一个示例性实施例提供的不同显示状态下拍摄控件的示意图;
[0029]
图11是本申请一个示例性实施例提供的拍摄预览内容的示意图;
[0030]
图12是本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图;
[0031]
图13是本申请一个示例性实施例提供的通过场景选择控件开启场景编辑界面的示意图;
[0032]
图14是本申请一个示例性实施例提供的通过场景切换控件开启场景选择列表的示意图;
[0033]
图15是本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示装置的结构框图;
[0034]
图16是本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示系统的结构框图。
具体实施方式
[0035]
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
[0036]
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
[0037]
在一种可能的实施方式中,头戴式设备为ar设备、vr设备或ar和vr一体的视听设备。
[0038]
头戴式设备在利用ar技术显示多媒体内容时,按照显示原理可以大致划分为三种:
[0039]
一种为设置有显示屏和摄像头的头戴式设备,其通过摄像头采集周围的真实环境画面,再将虚拟信息与真实环境画面叠加,通过显示屏展示叠加后的画面。
[0040]
一种为设置有投影组件和透明镜片的头戴式设备,其通过投影组件将虚拟信息投影到透明镜片上,则用户可以通过透明镜片同时观察到真实环境和虚拟信息,从而获得在真实环境中编辑虚拟信息的体验。
[0041]
另一种设置有投影组件和透明镜片的头戴式设备,其投影组件设置在设备内侧,可以通过投影组件将虚拟信息直接投影至用户的眼球,从而使用户得到在真实环境中编辑虚拟信息的使用感受。其中,虚拟信息包括文字、模型、网页以及多媒体内容(例如虚拟图像、视频、音频)等。
[0042]
图1示出了一种头戴式设备110,该设备110为头盔显示器(head-mounted display,hmd)设备,头戴式设备110通过摄像头111实时采集真实环境画面,将虚拟信息与真实环境画面进行叠加,并将叠加后的画面通过显示屏112进行展示,用户将头戴式设备110佩戴在头部后,即可通过显示屏112观察到虚拟信息与真实环境画面融合的场景。图2示出了另一种头戴式设备210,该设备210为眼镜式设备,头戴式设备210的镜片外侧设置有投影组件211,头戴式设备210通过投影组件211将虚拟信息投影至镜片212,用户佩戴头戴式设备210后,通过镜片212即可同时观察到真实环境画面和虚拟信息。
[0043]
本申请以头戴式设备为设置有显示屏和摄像头的头戴式设备为例进行说明。如图3所示,头戴式设备310设置有摄像头组件311和显示屏组件312,其通过摄像头组件311实时
拍摄周围的真实环境画面,并将真实环境画面与ar信息融合后,通过显示屏组件312在头戴式设备310内侧进行展示。在一种可能的实现方式中,头戴式设备310具有虚拟场景编辑和拍摄功能,用户通过改变头戴式设备310的设备姿态调整取景内容。
[0044]
在一种可能的实施方式中,头戴式设备310可以被单独使用实现各种功能,也可以与控制设备320配合使用。当头戴式设备310与控制设备320配合成为真实环境画面中虚拟道具的显示系统时,可选的,头戴式设备310中的处理器负责执行本申请实施例中大部分的数据处理任务,控制设备320基于用户的触发操作向头戴式设备310发送指令和数据;或者,控制设备320中的处理器负责执行本申请实施例中大部分的数据处理任务,而头戴式设备310负责基于控制设备320的执行结果进行画面渲染等。本申请实施例对此不作限定。
[0045]
控制设备320与头戴式设备310相连,其设备类型包括:手柄、智能手机、平板电脑中的至少一种。控制设备320中设置有触控区域和触控按键中的至少一种,头戴式设备310在真实环境画面中通过虚拟射线指示控制设备320的设备指向,使用户通过观察虚拟射线的位置和方向实时掌握控制设备320的设备指向,并结合对控制设备的触控操作控制头戴式设备310执行相应的指令。在一种可能的实现方式中,当控制设备320与头戴式设备310连接时,头戴式设备310同步接收控制设备320发送的控制指令。
[0046]
可选的,头戴式设备310与控制设备320通过数据线、无线保真(wireless fidelity,wifi)热点或蓝牙等方式建立连接。
[0047]
图4示出了本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图。本实施例以该方法用于头戴式设备为例进行说明,该方法包括如下步骤:
[0048]
步骤401,在真实环境画面上叠加显示场景编辑界面和虚拟射线,场景编辑界面中包含道具选择列表,道具选择列表中包含至少一种虚拟道具对应的道具选择控件,虚拟射线用于指示控制操作的触发位置。
[0049]
其中,虚拟射线用于指示控制操作的触发位置,头戴式视听设备实时获取包含虚拟射线指向的数据,并将虚拟射线显示在真实环境画面中。在一种可能的实施方式中,用户通过预设方式控制虚拟射线的指向,使头戴式设备获取数据,例如,头戴式设备基于眼球识别的方式获取用户视线,并将用户视线的指向作为虚拟射线的指向,用户只需转动眼镜即可改变虚拟射线的位置、方向等;或者,头戴式设备中设置有触控区域,头戴式设备基于从触控区域接收到的触控操作,确定虚拟射线的指向等。
[0050]
头戴式视听设备开启后,实时采集真实环境画面,并根据用户输入确定需要展示的虚拟信息。本申请实施例中,头戴式视听设备运行相机应用,上述虚拟信息为场景编辑界面和虚拟射线。
[0051]
在一种可能的实施方式中,头戴式视听设备通过摄像头组件采集设备正前方的真实环境画面,并将场景编辑界面和虚拟射线融合在真实环境画面后通过显示屏组件进行展示,例如,显示屏组件位于头戴式视听设备的前部,使用户佩戴头戴式视听设备后正视前方即可观察到场景编辑界面和虚拟射线。
[0052]
本申请实施例中的相机应用具有场景编辑功能,用户利用道具选择列表中所包含的虚拟道具组成虚拟场景,头戴式视听设备对虚拟道具和真实环境画面进行融合显示。用户可以利用头戴式视听设备创建虚拟场景,并对虚拟场景和真实环境画面进行拍摄,而不是只能够拍摄头戴式视听设备所显示的预设虚拟场景和真实环境画面。
[0053]
头戴式视听设备在相对于真实环境画面的预设位置处显示场景编辑界面,例如,头戴式视听设备将场景编辑界面显示在显示器的左侧区域。
[0054]
示意性的,图5示出了一种头戴式视听设备的显示画面。头戴式视听设备在真实环境画面501上叠加显示有场景编辑界面502、虚拟道具504以及虚拟射线505,其中,场景编辑界面502中包含至少一种虚拟道具对应的道具选择控件503。并且,场景编辑界面502中还显示有其它功能控件,例如返回控件,用于返回显示上一虚拟界面;上翻控件、下翻控件,用于展现不同的道具选择控件;清空控件,用于一键清空当前真实环境画面中已放置的虚拟道具。
[0055]
步骤402,基于获取到的射线调整数据在真实环境画面中移动虚拟射线。
[0056]
其中,射线调整数据中包含虚拟射线的射线方向。头戴式设备基于用户操作或其它设备发送的用户操作等信息,获取射线调整数据,并基于获取到的射线调整数据在真实环境画面中移动虚拟射线。例如,头戴式设备实时进行眼球识别,并捕捉用户视线方向,将视线方向确定为虚拟射线的射线方向,用户转动眼球即可控制虚拟射线在真实环境画面中的指向。
[0057]
步骤403,响应于虚拟射线与目标道具选择控件相交,且接收到第一控制指令,在真实环境画面中显示目标道具选择控件对应的目标虚拟道具。
[0058]
头戴式设备以虚拟射线与目标道具选择控件相交作为选中目标道具选择控件的条件,即用户在真实环境画面中添加目标虚拟道具时,需要先通过改变虚拟射线的射线方向,使虚拟射线指向目标道具选择控件,并与目标道具选择控件相交,再通过预设方式的用户操作,使头戴式设备接收到第一控制指令,从而使头戴式设备在真实环境画面中显示目标道具选择控件对应的目标虚拟道具。
[0059]
可选的,头戴式设备中设置有触控区域,用户通过作用于触控区域的触控操作使头戴式设备接收第一指令;或者,用户通过预设的手势,使头戴式设备在检测到手势时接收第一指令等。其中,第一指令是用于指示头戴式设备执行用户操作的指令,其中包含触发操作的操作类型和操作数据等,头戴式设备基于第一指令中所包含的具体信息(操作类型和操作数据等)以及当前虚拟射线所指向的虚拟对象(控件、虚拟道具等),确定需要执行的指令。
[0060]
当虚拟射线与目标道具选择控件相交,且接收到第一控制指令时,头戴式设备在真实环境画面中添加显示目标道具选择控件所对应的目标虚拟道具,如图5所示,虚拟射线505与道具选择控件503相交,且头戴式设备接收到第一指令,头戴式设备则根据第一指令在真实环境画面501中显示道具选择控件503所对应的虚拟道具504。
[0061]
在另一种可能的实施方式中,头戴式设备与控制设备之间建立有数据连接,控制设备用于向头戴式设备发送射线调整数据以及控制指令,虚拟射线的射线方向为控制设备的设备指向。在一种可能的实施方式中,控制设备实时将自身的设备指向数据(例如控制设备相对于空间中x轴、y轴和z轴的角度等)发送至头戴式设备,头戴式设备基于设备指向数据得到虚拟射线的射线方向,从而在真实环境画面中显示虚拟射线,使佩戴头戴式设备的用户能够通过观察虚拟射线掌握控制设备的设备指向,明确控制设备所指向的虚拟对象。综上所述,本申请实施例中,通过实时显示虚拟射线,并基于射线调整数据移动显示虚拟射线,以指示控制操作的触发位置,使用户能够通过观察虚拟射线的位置和方向实时掌握触
发位置,用户只需使虚拟射线与虚拟道具、控件等需要控制的对象相交,即可快速通过头戴式虚拟设备控制虚拟道具,提高了虚拟道具的控制效率和操作的准确性。
[0062]
图6示出了本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图。本实施例以该方法用于头戴式设备为例进行说明,该方法包括如下步骤:
[0063]
步骤601,在真实环境画面上叠加显示场景编辑界面和虚拟射线,场景编辑界面中包含道具选择列表,道具选择列表中包含至少一种虚拟道具对应的道具选择控件,虚拟射线用于指示控制操作的触发位置。
[0064]
步骤601的具体实施方式可以参考上述步骤401,本申请实施例在此不再赘述。
[0065]
步骤602,响应于虚拟射线与目标道具选择控件相交,对目标道具选择控件进行突出显示。
[0066]
道具编辑界面中通常包含多个道具选择控件以及其它类型的控件,为了进一步帮助用户快速掌握控制设备的设备指向,当虚拟射线与目标道具选择控件相交时,头戴式设备对目标道具选择控件进行突出显示,从而使用户得知当前虚拟射线所选中的道具选择控件,从而能够在需要通过该控件添加虚拟道具时快速进行操作,或者及时调整虚拟射线的指向。并且,在虚拟射线与目标道具选择控件相交时对目标道具选择控件进行突出显示,能够在虚拟射线与目标道具选择控件的边缘接触时立即提示用户已与目标道具选择控件相交,而无需用户确认是否相交或继续移动至中心位置确保相交。
[0067]
可选的,该突出显示的方式包括高亮显示、放大显示、改变颜色等方式中的至少一种。
[0068]
在一种可能的实施方式中,道具选择控件包括可触发状态、选中状态和不可触发状态,当虚拟射线与目标道具选择控件相交,且道具选择控件处于可触发状态时,对目标道具选择控件进行突出显示,使目标道具选择控件从可触发状态切换至选中状态。对于不可添加的虚拟道具,其对应的道具选择控件处于不可触发状态,例如由于应用版本未更新等原因导致的虚拟道具不可添加。不可触发状态下的道具选择控件,其显示状态与可触发状态下的道具选择控件不同,例如可触发状态下的道具选择控件包含虚拟道具的缩略图,而不可触发状态下的道具选择控件中包含对应虚拟道具的阴影等,本申请实施例对此不作限定。如图5所示,虚拟射线505与道具选择控件503相交,道具选择控件503处于选中状态,头戴式设备对其进行放大和高亮显示,而道具选择控件506处于不可触发状态,头戴式设备仅在该控件中显示对应虚拟道具的阴影图,其它道具选择控件处于可触发状态,其中显示有对应虚拟道具的缩略图。
[0069]
步骤603,响应于第二控制指令,将目标虚拟道具显示在虚拟射线与真实环境画面的交点处。
[0070]
头戴式设备在虚拟射线与目标道具选择控件相交,且接收到第二控制指令时,在真实环境画面中显示目标虚拟道具,并将目标虚拟道具显示在虚拟射线与真实环境画面的交点处,使目标虚拟道具能够随虚拟射线移动。当用户改变虚拟射线的射线方向时,目标虚拟道具能够自动随虚拟射线基于射线调整数据而移动,从而使用户可以通过控制虚拟射线将目标虚拟道具移动至真实环境画面中的任意位置。
[0071]
在一种可能的实施方式中,第二控制指令是控制设备在接收到道具选择操作时生成的指令,可选的,第二控制操作为单击操作、双击操作或长按操作等,本申请实施例对此
不作限定。
[0072]
例如,当头戴式设备通过控制设备接收控制指令和射线调整数据时,第二控制操作为长按操作,则用户可以通过控制虚拟射线与目标道具选择控件相交,并在控制设备的触控区域进行长按操作,使头戴式设备将目标虚拟道具显示在虚拟射线与真实环境画面的交点处,这一过程中,控制设备在接收到长按操作时,向头戴式设备发送接收到长按操作的指令,头戴式设备根据该指令所指示的操作类型,以及当前虚拟射线所指向的对象,判断出需要将目标虚拟道具显示在虚拟射线与真实环境画面的交点处,并进行相应的显示。
[0073]
步骤604,基于道具选择指令后的射线调整数据,移动虚拟射线和目标虚拟道具。
[0074]
当用户想要使目标虚拟道具在真实环境画面中移动时,通过用户操作使头戴式设备接收到射线调整数据,头戴式设备基于射线调整数据移动虚拟射线和目标虚拟道具,并实时显示。
[0075]
在一种可能的实施方式中,当头戴式设备通过控制设备接收控制指令和射线调整数据时,用户通过作用于控制设备的长按操作使头戴式设备选中目标虚拟道具,即使目标虚拟道具显示在虚拟射线与真实环境画面的交点处,并在长按操作未结束时,改变控制设备的设备姿态,例如移动或转动控制设备等,控制设备将包含移动方向和移动距离的射线调整数据发送至头戴式设备,头戴式设备基于控制设备的移动方向确定虚拟射线和目标虚拟道具的移动方向,并基于控制设备的移动距离以及距离映射关系,确定目标虚拟道具的移动距离,其中,距离映射关系为控制设备的移动距离与在真实环境画面中的映射距离之间的关系。
[0076]
步骤605,响应于道具放置指令,在道具放置指令所指示的放置位置显示目标虚拟道具。
[0077]
在一种可能的实施方式中,当头戴式设备接收到道具放置指令时,将目标虚拟道具脱离虚拟射线,固定放置在当前位置。其中,道具放置指令是头戴式设备或其它设备在接收到道具放置操作时生成的指令,可选的,道具放置操作为单击操作、双击操作或长按操作等,头戴式设备基于自身接收到的触发操作或基于检测到的用户手势生成道具放置指令,或者,头戴式设备接收其它设备所发送的道具放置指令,本申请实施例对此不作限定。
[0078]
例如,当头戴式设备通过控制设备接收控制指令和射线调整数据时,若控制设备接收到长按操作,则向头戴式设备发送道具选择指令,当控制设备检测到长按操作结束时,向头戴式设备发送道具放置指令,即用户在真实环境画面中添加虚拟道具时,通过长按并移动控制设备,移动虚拟道具,在将虚拟道具移动至想要放置的位置时,松手即可使虚拟道具固定显示在当前位置处。
[0079]
示意性的,图7示出了添加并防止目标虚拟对象过程的示意图。当虚拟射线702与道具选择控件701相交,且头戴式设备接收到控制设备发送的道具选择指令时,将虚拟道具703显示在虚拟射线702与真实环境画面的交点处,并且基于控制设备发送的射线调整数据,移动虚拟道具703和虚拟射线702,图中虚线部分表示移动过程中的虚拟道具703和虚拟射线702,当虚拟道具703和虚拟射线702移动至图7中实线所在位置时,头戴式设备接收到控制设备发送的道具放置指令,则将虚拟道具703显示在射线调整数据所指示的显示位置处,将虚拟道具703固定显示在该位置,并且后续虚拟射线702移动时虚拟道具703并不会随之移动。
[0080]
为了方便用户快速掌握添加虚拟道具的交互方式,头戴式设备在真实环境画面上叠加显示操作提示信息,如图7中的“长按拖动模型,松开放置”等。
[0081]
步骤606,响应于虚拟射线与真实环境画面中的已添加道具相交,且接收到第二控制指令,将已添加道具显示在虚拟射线与真实环境画面的交点处。
[0082]
在一种可能的实施方式中,用户可以通过头戴式设备在添加虚拟道具时移动虚拟道具,还可以对已经放置在真实环境画面中的虚拟道具(即已添加道具)进行移动。当虚拟射线与真实环境画面中的已添加道具相交,且头戴式设备接收到第二控制指令时,将已添加道具显示在虚拟射线与真实环境画面的交点处。其中,第二控制指令是头戴式设备或其它设备在接收到道具移动操作时生成的指令,可选的,道具移动操作为单击操作、双击操作、长按操作或者预设手势等,头戴式设备基于自身接收到的触发操作或基于检测到的用户手势生成第二控制指令,或者,头戴式设备接收其它设备所发送的第二控制指令,本申请实施例对此不作限定。
[0083]
步骤607,基于第二控制指令后的射线调整数据,移动虚拟射线和已添加道具。
[0084]
当已添加道具显示在虚拟射线与真实环境画面的交点处时,头戴式设备基于接收到的的射线调整数据对二者进行移动显示。在一种可能的实施方式中,该射线调整数据包括移动方向和移动距离等。
[0085]
步骤608,响应于虚拟射线与目标虚拟道具相交,且接收到第三控制指令,显示目标虚拟道具对应的编辑控件。
[0086]
头戴式设备除了能够对虚拟道具进行添加和移动之外,还可以对虚拟道具进行编辑操作,用户通过编辑虚拟道具使其达到期望的显示效果。在一种可能的实施方式中,当虚拟射线与目标虚拟道具相交,且头戴式设备接收到第三控制指令时,显示目标虚拟道具对应的编辑控件,即用户可以通过控制虚拟射线与目标虚拟道具相交并进行道具编辑操作,使头戴式设备接收第三控制指令,从而使虚拟道具处于编辑状态。其中,道具编辑操作为单击操作、双击操作或长按操作等,本申请实施例对此不作限定。
[0087]
示意性的,如图8所示,头戴式设备通过控制设备接收控制指令和射线调整数据,虚拟射线802与虚拟道具801相交,当头戴式设备接收到控制设备发送的第三控制指令时,显示虚拟道具801所对应的编辑控件。
[0088]
可选的,真实环境画面中的多个虚拟道具可以同时处于编辑状态,各个虚拟道具都对应有编辑控件,例如,目标虚拟道具所对应的编辑控件与目标虚拟道具的相对位置固定(比如编辑控件显示在目标虚拟道具的正面),并随目标虚拟道具的移动而移动。
[0089]
步骤609,响应于虚拟射线与目标编辑控件相交,且接收到第四控制指令,基于目标编辑控件对应的编辑方式对目标虚拟道具进行编辑。
[0090]
在一种可能的实施方式中,目标虚拟道具对应有不同功能的编辑控件,用户通过控制虚拟射线与目标编辑控件相交,并通过触发操作使头戴式视听设备接收第四控制指令,使头戴式设备按照目标编辑控件对应的编辑方式对目标虚拟道具进行编辑。例如,编辑控件包括删除控件、放大控件和缩小控件中的至少一种,步骤609包括如下步骤:
[0091]
步骤609a,响应于虚拟射线与删除控件相交,且接收到第四控制指令,删除目标虚拟对象。
[0092]
如图8所示,当虚拟射线802与删除控件803相交,且头戴式设备接收到第三控制指
令时,将目标虚拟对象从真实环境画面中删除。当头戴式设备通过控制设备接收控制指令和射线调整数据时,第四控制指令是控制设备在接收到编辑控件触发操作时生成的指令,编辑控件触发操作可以是单击操作、双击操作、长按操作等,本申请实施例对此不作限定。
[0093]
步骤609b,响应于虚拟射线与放大控件相交,且接收到第四控制指令,将目标虚拟对象放大至预设放大倍数。
[0094]
如图8所示,当虚拟射线802与放大控件804相交,且头戴式设备接收到第四控制指令时,将目标虚拟对象放大至预设放大倍数。当头戴式设备通过控制设备接收控制指令和射线调整数据时,第四控制指令为控制设备接收到编辑控件触发操作时生成的指令,其中编辑控件触发操作可能包含不同的操作类型,例如,当编辑控件触发操作为单击操作时,头戴式设备基于第四控制指令触发一次放大控件804,即对目标虚拟道具801进行一次放大操作;当编辑控件触发操作为长按操作时,头戴式设备基于第四控制指令持续触发放大控件804,即对目标虚拟道具801进行连续放大,当长按操作停止时,控制设备向头戴式设备发送编辑结束指令,使头戴式设备停止放大目标虚拟道具。本申请实施例对此不作限定。
[0095]
步骤609c,响应于虚拟射线与缩小控件相交,且接收到第四控制指令,将目标虚拟对象缩小至预设缩小倍数。
[0096]
相应的,如图8所示,当虚拟射线802与缩小控件805相交,且头戴式设备接收到第四控制指令时,将目标虚拟对象缩小至预设缩小倍数。
[0097]
本申请实施例中,当虚拟射线与目标道具选择控件相交时,通过对目标道具选择控件进行突出显示,使用户得知当前虚拟射线所选中的道具选择控件,无需仔细观察虚拟射线与目标道具选择控件的位置以确保相交,方便用户操作;头戴式设备在虚拟射线与目标道具选择控件相交,且接收到道具选择指令时,将目标虚拟道具显示在虚拟射线与真实环境画面的交点处,用户只需改变虚拟射线的射线方向即可移动目标虚拟道具,提高了虚拟道具的控制效率和操作的准确性。
[0098]
上述实施例示出了用户通过控制设备和头戴式设备添加以及编辑虚拟道具的过程,在一种可能的实施方式中,头戴式设备还可以基于虚拟射线交互和其它控制指令完成拍摄功能。在图4的基础上,图9示出了本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图。本实施例以该方法用于头戴式设备为例进行说明,该方法在步骤403之后,还包括如下步骤:
[0099]
步骤404,响应于虚拟射线与真实环境画面上叠加显示的拍摄控件相交,且接收到第五控制指令,对真实环境画面和虚拟道具进行拍摄。
[0100]
头戴式设备以虚拟射线与拍摄控件相交作为选中拍摄控件的条件,即用户在需要进行拍摄时,先通过改变虚拟射线的射线方向,使虚拟射线指向拍摄控件,并与拍摄控件相交,再通过用户操作使头戴式设备接收到第五控制指令,从而使头戴式设备对真实环境画面和虚拟道具进行拍摄。
[0101]
在一种可能的实施方式中,头戴式设备完成拍摄后,将拍摄得到的图像或视频等内容自动存储至预设存储位置,便于用户将拍摄的到的内容传输至其它设备。
[0102]
可选的,头戴式设备拍摄完成后,展示拍摄得到的内容;或者,头戴式设备拍摄完成后,继续在真实环境画面中叠加显示接收到第五控制指令时的场景编辑界面、虚拟道具的虚拟射线。本申请实施例对此不作限定。
[0103]
在一种可能的实施方式中,步骤404包括如下步骤:
[0104]
步骤404a,响应于虚拟射线与拍摄控件相交,且接收到第五控制指令,将拍摄控件从默认显示状态切换至拍摄显示状态。
[0105]
为了方便用户确认当前头戴式设备是否正在拍摄,当虚拟射线与拍摄控件相交且接收到第五控制指令时,头戴式设备将拍摄控件从默认显示状态切换至拍摄显示状态。可选的,拍摄显示状态下的拍摄控件相对于默认显示状态下的拍摄控件,控件图形、控件尺寸、控件显示颜色以及控件显示效果等至少一种元素不同。拍摄期间,拍摄控件始终保持拍摄显示状态,直至拍摄结束。
[0106]
步骤404b,基于第五控制指令的指令类型确定目标拍摄方式。
[0107]
在一种可能的实施方式中,头戴式设备中的拍摄方式包括拍摄图像和录制视频,为了对两种拍摄方式的交互方式进行区分,方便用户根据需求快速选择目标拍摄方式,两种拍摄方式对应的触发操作不同,其对应的第五控制指令的类型也不同,头戴式设备或控制设备基于接收到的触发操作的操作类型生成对应的第五控制指令,头戴式设备基于第五控制指令的指令类型确定目标拍摄方式。步骤404b包括如下步骤:
[0108]
步骤一,响应于第五控制指令为拍照指令,确定拍摄方式为拍摄图像。
[0109]
拍照指令为控制设备接收到拍照操作时生成的指令,当头戴式设备确定虚拟射线与拍摄控件相交,且基于第五控制指令确定接收到拍照操作时,确定拍摄方式为拍摄图像。其中,拍照操作包括单击操作、双击操作、长按操作或预设手势等。
[0110]
步骤二,响应于第五控制指令为录像指令,确定拍摄方式为录制视频,并通过拍摄控件展示录制进度。
[0111]
录像指令为控制设备接收到录像操作时生成的指令,当头戴式设备确定虚拟射线与拍摄控件相交,且基于第五控制指令确定控制设备接收到录像操作时,确定拍摄方式为录制视频。其中,录像操作包括单击操作、双击操作、长按操作或预设手势等。
[0112]
拍照操作与录像操作的操作类型不同,例如,拍照操作为单击操作,录像操作为长按操作,且录像时长等于长按操作的按压时长。
[0113]
示意性的,如图10所示,不同拍摄方式下拍摄控件的拍摄显示状态不同。当拍摄方式为拍摄图像时,头戴式设备在拍摄瞬间将默认显示状态下的拍摄控件1001a切换为拍摄显示状态下的拍摄控件1001b,并在拍摄结束的瞬间将其恢复至默认显示状态下的拍摄控件1001a;当拍摄方式为录像时,头戴式设备,在拍摄瞬间将默认显示状态下的拍摄控件1001a切换为拍摄显示状态下的拍摄控件1001c,并且录制期间拍摄控件中显示有录制进度条,拍摄控件上显示有拍摄时长。
[0114]
步骤404c,采用目标拍摄方式对真实环境画面和虚拟道具进行拍摄。
[0115]
在一种可能的实施方式中,头戴式设备采用目标拍摄方式对真实环境画面和虚拟道具进行拍摄,即拍摄得到的图像或视频中,既包含真实环境画面也包含虚拟道具,但并不包含虚拟射线、场景编辑界面以及其它控件、虚拟内容等。
[0116]
步骤404d,在场景编辑界面上叠加显示拍摄预览内容。
[0117]
为了方便用户及时查看拍摄效果,头戴式设备在拍摄完成后,在场景编辑界面上叠加显示拍摄预览内容,例如在场景编辑界面上叠加显示预览图像。在一种可能的实施方式中,头戴式设备在预设时长内显示拍摄预览内容,并在拍摄预览内容的显示时长达到预
设时长后,自动取消显示拍摄预览内容,并返回场景编辑界面。
[0118]
示意性的,如图11所示,当虚拟射线1101与拍摄控件1102相交,且接收到拍照指令时,头戴式设备对真实环境画面和虚拟道具进行拍摄,得到相应的图像,并在场景编辑界面1103上叠加显示拍摄预览内容1104。
[0119]
本申请实施例中,当虚拟射线与拍摄控件相交且接收到第五控制指令时,头戴式设备将拍摄控件从默认显示状态切换至拍摄显示状态,从而方便用户确认当前头戴式设备是否正在拍摄;对于不同拍摄方式对应的交互方式进行区分,方便用户根据需求快速选择目标拍摄方式;并且,拍摄完成后在场景编辑界面上叠加显示拍摄预览内容,方便用户及时查看拍摄效果。
[0120]
上述实施例说明了在同一场景下进行虚拟道具的添加、编辑以及拍摄过程的交互操作,在一种可能的实施方式中,本申请实施例提供的相机应用中包含不同主体的虚拟场景,用户可以根据自己的喜好选择相应的场景进行体验。图12示出了本申请另一个示例性实施例提供的真实环境画面中虚拟道具的显示方法的流程图。本实施例以该方法用于头戴式设备为例进行说明,该方法包括如下步骤:
[0121]
步骤1201,在真实环境画面上叠加显示场景选择界面,场景选择界面中包含至少一种主题的场景选择控件。
[0122]
在一种可能的实施方式中,头戴式设备开启相机应用后,首先在真实环境画面上叠加显示场景选择界面,其中包含至少一种主题的场景选择控件,提示用户选择其中一种主题进行场景设置和拍摄体验。
[0123]
步骤1202,响应于虚拟射线与目标场景选择控件相交,且接收到第六控制指令,在真实环境画面上叠加显示虚拟射线以及目标场景选择控件对应的场景编辑界面。
[0124]
在一种可能的实施方式中,第六控制指令为控制设备或头戴式设备接收到场景选择操作时生成的指令,当头戴式设备确定虚拟射线与目标场景选择控件相交,且基于第六控制指令确定接收到场景选择操作时,在真实环境画面上叠加显示虚拟射线以及目标场景选择控件对应的场景编辑界面。其中,场景选择操作包括单击操作、双击操作、长按操作或预设手势等,本申请实施例对此不作限定。
[0125]
示意性的,如图13所示,真实环境画面上叠加显示有3种不同主题的场景选择控件,虚拟射线1301与场景选择控件1302相交,且头戴式设备接收到第六控制指令时,触发场景选择控件1302,将场景选择界面切换为场景编辑界面。
[0126]
步骤1203,基于获取到的射线调整数据在真实环境画面中移动虚拟射线。
[0127]
步骤1204,响应于虚拟射线与目标道具选择控件相交,且接收到第一控制指令,在真实环境画面中显示目标道具选择控件对应的目标虚拟道具。
[0128]
步骤1203至步骤1204的具体实施方式可以参考上述步骤402至步骤403,本申请实施例在此不再赘述。
[0129]
步骤1205,响应于虚拟射线与场景切换控件相交,且接收到第七控制指令,在真实环境画面上叠加显示场景选择列表,场景选择列表中包含至少一种主题的场景选择控件。
[0130]
为了便于用户在体验某一主题的虚拟场景过程中切换至其它主题的虚拟场景,头戴式设备所显示的场景编辑界面中还包含场景切换控件,用户可以通过触发场景切换控件,使头戴式设备显示场景选择列表,并通过场景选择列表中的场景选择控件开启其它场
景,无需返回至场景选择界面进行重新选择,简化了用户操作。
[0131]
示意性的,如图14所示,头戴式设备通过控制设备接收控制指令和射线调整数据,头戴式设备在场景编辑界面中显示场景切换控件1401,当虚拟射线1402与场景切换控件1401相交,且接收到控制设备发送的第七控制指令时,头戴式设备在真实环境画面上叠加显示场景选择列表1403。
[0132]
步骤1206,响应于虚拟射线与目标场景选择控件相交,且接收到第八控制指令,在真实环境画面上叠加显示目标场景选择控件对应的场景编辑界面。
[0133]
在一种可能的实施方式中,头戴式设备从将场景编辑界面切换至场景选择列表后,保留当前真实环境画面中已放置的虚拟道具,从而使用户可以利用不同主题场景中的虚拟道具设置虚拟场景。
[0134]
如图14所示,头戴式设备通过控制设备接收控制指令和射线调整数据,当虚拟射线1402与场景选择控件1404相交,且接收到控制设备发送的第八控制指令时,头戴式设备在真实环境画面上叠加显示目标场景选择控件对应的场景编辑界面。
[0135]
本申请实施例中的相机应用中包含不同主体的虚拟场景,用户可以根据自己的喜好选择相应主题的场景进行体验;头戴式设备所显示的场景编辑界面中还包含场景切换控件,当虚拟射线与场景切换控件相交,且接收到第七控制指令时,头戴式设备显示场景选择列表,头戴式设备通过触发场景选择列表中的场景选择控件开启其它场景,从而满足用户在体验某一主题的虚拟场景过程中切换至其它主题的虚拟场景的需求,无需返回至场景选择界面进行重新选择,简化了用户操作。
[0136]
图15示出了本申请一个示例性实施例提供的真实环境画面中虚拟道具的显示装置的结构框图。该装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。该装置包括:
[0137]
第一显示模块1501,用于在真实环境画面上叠加显示场景编辑界面和虚拟射线,所述场景编辑界面中包含道具选择列表,所述道具选择列表中包含至少一种虚拟道具对应的道具选择控件,所述虚拟射线用于指示控制操作的触发位置;
[0138]
第一调整模块1502,用于基于射线调整数据在所述真实环境画面中移动所述虚拟射线;
[0139]
第二显示模块1503,用于响应于所述虚拟射线与目标道具选择控件相交,且接收到第一控制指令,在所述真实环境画面中显示所述目标道具选择控件对应的目标虚拟道具。
[0140]
可选的,所述第一控制指令包括道具选择指令和道具放置指令;
[0141]
所述第二显示模块1503,包括:
[0142]
第一显示单元,用于响应于所述虚拟射线与所述目标道具选择控件相交,对所述目标道具选择控件进行突出显示;
[0143]
第二显示单元,用于响应于所述所述道具选择指令,将所述目标虚拟道具显示在所述虚拟射线与所述真实环境画面的交点处;
[0144]
移动单元,用于基于所述道具选择指令后的所述射线调整数据,移动所述虚拟射线和所述目标虚拟道具;
[0145]
解除单元,用于响应于所述道具放置指令,在所述道具放置指令所指示的放置位
置显示所述目标虚拟道具。
[0146]
可选的,所述装置还包括:
[0147]
第三显示模块,用于响应于所述虚拟射线与所述真实环境画面中的已添加道具相交,且接收到第二控制指令,将所述已添加道具显示在所述虚拟射线与所述真实环境画面的交点处;
[0148]
移动模块,用于基于所述第二控制指令后的所述射线调整数据,移动所述虚拟射线和所述已添加道具。
[0149]
可选的,所述装置还包括:
[0150]
第四显示模块,用于响应于所述虚拟射线与所述目标虚拟道具相交,且接收到第三控制指令,显示所述目标虚拟道具对应的编辑控件;
[0151]
编辑模块,用于响应于所述虚拟射线与目标编辑控件相交,且接收到第四控制指令,基于所述目标编辑控件对应的编辑方式对所述目标虚拟道具进行编辑。
[0152]
可选的,所述道具编辑控件包括删除控件、放大控件和缩小控件中的至少一种;
[0153]
所述编辑模块,包括:
[0154]
第一编辑单元,用于响应于所述虚拟射线与所述删除控件相交,且接收到所述第四控制指令,删除所述目标虚拟对象;
[0155]
第二编辑单元,用于响应于所述虚拟射线与所述放大控件相交,且接收到所述第四控制指令,将所述目标虚拟对象放大至预设放大倍数;
[0156]
第三编辑单元,用于响应于所述虚拟射线与所述缩小控件相交,且接收到所述第四控制指令,将所述目标虚拟对象缩小至预设缩小倍数。
[0157]
可选的,所述装置还包括:
[0158]
拍摄模块,用于响应于所述虚拟射线与所述真实环境画面上叠加显示的拍摄控件相交,且接收到第五控制指令,对所述真实环境画面和所述虚拟道具进行拍摄。
[0159]
可选的,所述拍摄模块,包括:
[0160]
第三显示单元,用于响应于所述虚拟射线与所述拍摄控件相交,且接收到所述第五控制指令,将所述拍摄控件从默认显示状态切换至拍摄显示状态;
[0161]
确定单元,用于基于所述第五控制指令的指令类型确定目标拍摄方式;
[0162]
拍摄单元,用于采用所述目标拍摄方式对所述真实环境画面和所述虚拟道具进行拍摄;
[0163]
第四显示单元,用于在所述场景编辑界面上叠加显示拍摄预览内容。
[0164]
可选的,所述确定单元,还用于:
[0165]
响应于所述第五控制指令为拍照指令,确定所述拍摄方式为拍摄图像;
[0166]
响应于所述第五控制指令为录像指令,确定所述拍摄方式为录制视频,并通过所述拍摄控件展示录制进度。
[0167]
可选的,所述头戴式设备与控制设备之间建立有数据连接,所述控制设备用于向所述头戴式设备发送所述射线调整数据以及控制指令,所述虚拟射线的射线方向为所述控制设备的设备指向。
[0168]
可选的,所述装置还包括:
[0169]
第五显示模块,用于在所述真实环境画面上叠加显示场景选择界面,所述场景选
择界面中包含至少一种主题的场景选择控件;
[0170]
所述第一显示模块1501,包括:
[0171]
第五显示单元,用于响应于所述虚拟射线与目标场景选择控件相交,且接收到第六控制指令,在所述真实环境画面上叠加显示所述虚拟射线以及所述目标场景选择控件对应的所述场景编辑界面。
[0172]
可选的,所述场景编辑界面中显示有场景切换控件;
[0173]
所述装置还包括:
[0174]
第六显示模块,用于响应于所述虚拟射线与所述场景切换控件相交,且接收到第七控制指令,在所述真实环境画面上叠加显示场景选择列表,所述场景选择列表中包含至少一种主题的场景选择控件;
[0175]
第七显示模块,用于响应于所述虚拟射线与目标场景选择控件相交,且接收到第八控制指令,在所述真实环境画面上叠加显示所述目标场景选择控件对应的所述场景编辑界面。
[0176]
综上所述,本申请实施例中,通过实时显示虚拟射线,并基于射线调整数据移动显示虚拟射线,以指示控制操作的触发位置,使用户能够通过观察虚拟射线的位置和方向实时掌握触发位置,用户只需使虚拟射线与虚拟道具、控件等需要控制的对象相交,即可快速通过头戴式虚拟设备控制虚拟道具,提高了虚拟道具的控制效率和操作的准确性。
[0177]
如图16所示,本申请实施例提供一种真实环境画面中虚拟道具的显示系统的结构框图,真实环境画面中虚拟道具的显示系统包括头戴式设备1600和控制设备1700,所述头戴式设备1600可以包括以下一个或多个组件:处理器1601,存储器1602,电源组件1603,多媒体组件1604,音频组件1605,输入/输出(input/output,i/o)接口1606,传感器组件1607以及通信组件1608。
[0178]
处理器1601通常控制头戴式设备的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理器1601可以包括一个或者多个处理核心。处理器1601利用各种接口和线路连接整个设备1600内的各个部分,通过运行或执行存储在存储器1602内的指令、程序、代码集或指令集,以及调用存储在存储器1602内的数据,执行终端1600的各种功能和处理数据。可选地,处理器1601可以采用数字信号处理(digital signal processing,dsp)、现场可编程门阵列(field-programmable gate array,fpga)、可编程逻辑阵列(programmable logic array,pla)中的至少一种硬件形式来实现。处理器1601可集成中央处理器(central processing unit,cpu)、图像处理器(graphics processing unit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;gpu用于负责屏幕所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1601中,单独通过一块通信芯片进行实现。
[0179]
存储器1602被配置为存储各种类型的数据以支持在头戴式设备的操作。这些数据的示例包括用于在头戴式设备上操作的任何应用程序或方法的指令,模型,联系人数据,电话簿数据,消息,图像,视频等。存储器1602可以包括随机存储器(random access memory,ram),也可以包括只读存储器(read-only memory,rom)。可选地,该存储器1602包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器1602
communication,nfc)模块,以促进短程通信。例如,在nfc模块可基于射频识别(radio frequency identification,rfid)技术,红外数据协会(infrared data association,irda)技术,超宽带(ultra wide band,uwb)技术,蓝牙(blue tooth,bt)技术和其他技术来实现。头戴式设备1600通过通信组件1608同步接收控制设备发送的信息,例如控制设备接收到的作用于触控区域的触控操作。
[0186]
除此之外,本领域技术人员可以理解,上述附图所示出的设备1600的结构并不构成对设备1600的限定,设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
[0187]
头戴式设备1600和控制设备1700之间通过数据线、wifi热点或蓝牙等方式建立连接。
[0188]
所述控制设备1700可以包括以下一个或多个组件:处理器1710、存储器1720和显示屏1730。
[0189]
处理器1710可以包括一个或者多个处理核心。处理器1710利用各种接口和线路连接整个终端1700内的各个部分,通过运行或执行存储在存储器1720内的指令、程序、代码集或指令集,以及调用存储在存储器1720内的数据,执行终端1700的各种功能和处理数据。可选地,处理器1710可以采用dsp、fpga、pla中的至少一种硬件形式来实现。处理器1710可集成cpu、gpu、神经网络处理器(neural-network processing unit,npu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;gpu用于负责触摸显示屏1730所需要显示的内容的渲染和绘制;npu用于实现人工智能(artificial intelligence,ai)功能;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1710中,单独通过一块芯片进行实现。
[0190]
存储器1720可以包括ram,也可以包括rom。可选地,该存储器1720包括non-transitory computer-readable storage medium。存储器1720可用于存储指令、程序、代码、代码集或指令集。存储器1720可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述述各个方法实施例的指令等;存储数据区可存储根据终端1700的使用所创建的数据(比如音频数据、电话本)等。
[0191]
显示屏1730是用于显示用户界面的显示组件。可选的,该显示屏1730还具有触控功能,通过触控功能,用户可以使用手指、触摸笔等任何适合的物体在显示屏1730上进行触控操作。
[0192]
显示屏1730通常设置在终端1730的前面板。显示屏1730可被设计成为全面屏、曲面屏、异型屏、双面屏或折叠屏。显示屏1730还可被设计成为全面屏与曲面屏的结合,异型屏与曲面屏的结合,本实施例对此不加以限定。
[0193]
除此之外,本领域技术人员可以理解,上述附图所示出的终端1700的结构并不构成对终端1700的限定,终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。比如,终端1700中还包括摄像组件、麦克风、扬声器、射频电路、输入单元、传感器(比如加速度传感器、角速度传感器、光线传感器等等)、音频电路、wifi模块、电源、蓝牙模块等部件,在此不再赘述。
[0194]
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有
至少一条指令,所述至少一条指令由处理器加载并执行以实现如上各个实施例所述的真实环境画面中虚拟道具的显示方法。
[0195]
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。头戴式设备或控制设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该头戴式设备或控制设备执行上述方面的各种可选实现方式中提供的真实环境画面中虚拟道具的显示方法。
[0196]
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读存储介质中或者作为计算机可读存储介质上的一个或多个指令或代码进行传输。计算机可读存储介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
[0197]
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1