一种虚拟显示方法、设备以及存储介质与流程

文档序号:29627295发布日期:2022-04-13 14:49阅读:86来源:国知局
一种虚拟显示方法、设备以及存储介质与流程

1.本技术涉及图像处理技术领域,特别是涉及一种虚拟显示方法、设备以及存储介质。


背景技术:

2.增强现实(augmented reality)技术是一种将虚拟信息与真实世界进行巧妙融合的技术。其广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互以及传感等多种技术手段。增强现实通过将计算机生成的文字、图像、三维模型、音乐以及视频等虚拟信息进行模拟仿真后,应用到真实世界中,使两种信息互为补充,从而实现对真实世界的“增强”。增强现实技术发展了很多年,希望有一天能在日常生活和工作中能使用该技术,提供生活的便利,提高工作效率等,目前也出现了很多的工作场景,随着技术的进步也有基于视觉高精度地图、信号定位等多传感器融合的全局定位的方法,数字孪生、平行世界等各类科幻的概念逐渐的成为可能。
3.现有技术中的ar应用均是使用单个的传感器创建ar空间或利用单个的传感器进行人机交互。例如,在一个终端设备上,后置相机主要通过拍摄的实时画面和相关算法构建ar空间,前置摄像头主要用于提供人脸空间,从而对人脸进行算法分析,再叠加ar效果的使用方法,然而,现存的技术方案中并未考虑结合两种ar空间的结合。


技术实现要素:

4.为了解决现有技术中存在的上述问题,本技术提供了一种虚拟显示方法、设备以及存储介质。
5.为解决现有技术的中存在的技术问题,本技术提供了一种虚拟显示方法,虚拟显示方法包括:基于第一传感器获取目标对象的用户数据;基于第二传感器获取目标对象所在的场景图像,基于所述场景图像生成虚拟形象;基于所述用户数据更新所述虚拟形象。
6.其中,所述虚拟显示方法,还包括:从所述场景图像中识别出生物数据;基于所述生物数据生成所述虚拟形象。
7.因此,通过直接从场景图像中识别生物数据作为生成虚拟形象,能够提高虚拟形象生成的的便捷性,提高虚拟形象的的展示效果。
8.其中,所述基于所述用户数据更新所述虚拟形象,包括:从所述用户数据中提取第一预设位置的第一特征信息;识别所述虚拟形象上第二预设位置的第二特征信息;将所述第一特征信息与所述第二特征信息进行融合,得到第三特征信息;基于所述第三特征信息更新所述虚拟形象。
9.因此,可以通过提取的用户数据中的第一预设位置的第一特征信息与提取的第二特征信息进行融合得到第三特征信息,并利用第三特征信息更新虚拟形象,可以提高虚拟形象的展示效果。
10.其中,所述用户数据包括:用户的人脸关键点;所述基于所述用户数据更新所述虚
拟形象,包括:基于所述用户的人脸关键点,更新所述虚拟形象。
11.因此,通过利用人脸关键点更新虚拟形象,可以提高虚拟形象的展示效果。
12.其中,所述基于所述用户的人脸关键点,更新所述虚拟形象,包括:基于所述用户的人脸关键点,识别所述用户的人脸表情类型;基于所述人脸表情类型查询对应的虚拟形象id,显示所述虚拟形象id的虚拟形象;所述人脸表情类型与所述虚拟形象id预先绑定。
13.因此,通过利用人脸关键点查询的虚拟形象更新虚拟形象,能够丰富场景图像与目标对象的交互效果,提高使用的趣味性。
14.其中,所述基于所述用户数据更新所述虚拟形象,包括:从所述用户数据中识别所述目标对象的人脸特征信息;基于所述人脸特征信息生成所述目标对象的表情信息;基于所述表情信息映射至所述虚拟形象的面部。
15.因此,可以通过从人脸特征中提取表情信息,并将表情信息映射至虚拟形象的面部,能够实现目标对象与虚拟形象的表情同步,提高用户体验。
16.其中,所述基于第一传感器获取目标对象的用户数据,包括:基于所述第一传感器获取目标对象的连续多帧图像;从所述连续多帧图像中识别所述目标对象的用户数据;所述基于所述用户数据更新所述虚拟形象,包括:基于所述连续多帧图像的用户数据生成虚拟动画以更新所述虚拟形象。
17.因此,可以从连续多帧的图像中获取用户数据,从而实现在虚拟形象中更新虚拟动画的目的,以丰富场景图像与目标对象的交互效果,提高使用的趣味性。
18.其中,所述基于所述用户数据更新所述虚拟形象,包括:响应于用户的第一操作指令,选择所述场景图像内的第一目标虚拟形象;基于所述用户数据更新所述第一目标虚拟形象。
19.因此,通过用户响应于用户的第一操作指令,以选择场景图像中的虚拟形象进行渲染,能够丰富场景图像与目标对象的交互效果,提高使用的趣味性。
20.其中,所述基于所述用户数据更新所述虚拟形象,包括:响应于用户的第二操作指令,选择所述场景图像内的第二目标虚拟形象,其中,所述第二目标虚拟形象包括除所述第一目标虚拟形象外的至少一个虚拟形象;基于所述用户数据更新所述第二目标虚拟形象。
21.因此,通过用户响应于用户的第二操作指令,以选择对场景图像中的虚拟形象进行多次更新或选择性更新,能够丰富场景图像与目标对象的交互效果,提高使用的趣味性。
22.其中,所述第一传感器为前置摄像头,所述第二传感器为后置摄像头,所述前置摄像头和所述后置摄像头设置于同一终端上。
23.为解决现有技术的中存在的技术问题,本技术提供了一种虚拟现实显示设备,虚拟现实显示设备包括:处理器和存储器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现上述的方法。
24.为解决现有技术的中存在的技术问题,本技术提供了一种虚拟现实显示设备,虚拟现实显示设备存储有程序指令,所述程序指令被处理器执行时实现上述的方法。
25.与现有技术相比,本技术的虚拟显示方法包括:基于第一传感器获取目标对象的用户数据;基于第二传感器获取目标对象所在的场景图像,基于场景图像生成虚拟形象;基于用户数据更新虚拟空间中的虚拟形象。因此,通过上述方式,可以利用第一传感器获取的用户数据更新基于第二传感器获取的场景图像所生成的虚拟形象,从而能够实现将两个传
感器所获取的空间数据进行结合的目的,以丰富目标对象的交互效果,提高使用的趣味性。
26.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本技术。
附图说明
27.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
28.图1是本技术提供的虚拟显示方法一实施例的流程示意图;
29.图2是图1中步骤s103的一实施例流程示意图;
30.图3是图1中步骤s103的另一实施例流程示意图;
31.图4是本技术提供的虚拟显示方法另一实施例的流程示意图;
32.图5是本技术提供的虚拟现实显示装置一实施例结构示意图;
33.图6是本技术提供的虚拟现实显示设备一实施例的结构示意图;
34.图7是本技术提供的计算机存储介质一实施例的结构示意图。
具体实施方式
35.下面结合附图和实施例,对本技术作进一步的详细描述。特别指出的是,以下实施例仅用于说明本技术,但不对本技术的范围进行限定。同样的,以下实施例仅为本技术的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本技术保护的范围。
36.在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
37.本技术的描述中,需要说明书的是,除非另外明确的规定和限定,术语“安装”、“设置”、“相连”、“连接”应做广义理解,例如,可以是固定连接,可以是可拆卸连接,或一体地连接;可以是机械来能接,也可以是电连接;可以是直接相连,也可以通过中间媒介间隔相连。对于本领域的普通技术人员而言,可以具体情况连接上述属于在本技术的具体含义。
38.本公开涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的ar效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、slam、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。
39.可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别
处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
40.基于以上基础技术,本技术提出了一种虚拟显示方法,具体请参阅图1,图1是本技术提供的虚拟显示方法一实施例的流程示意图。具体而言,可以包括如下步骤s101~步骤s103:
41.步骤s101:基于第一传感器获取目标对象的用户数据。
42.第一传感器可以为终端的前置摄像头,终端可以智能终端或移动终端,如智能手机等,其同时包括前置摄像头、后置摄像头和显示屏。目标对象可以为人或动物等具有可以用于作为用户数据的物体。其中,用户数据可以是人或动物的脸部数据,例如用户脸部的轮廓、用户的五官以及用户的面部表情等。当然,在其他实施例中,用户数据并非仅限于此,只要是能够通过第一传感器获取得到的目标对象的相关数据均可为上述的用户数据。
43.步骤s102:基于第二传感器获取目标对象所在的场景图像,基于场景图像生成虚拟形象。
44.第二传感器为后置摄像头,前置摄像头和后置摄像头设置于同一终端上,且该终端能够支持同时开启前置摄像头和后置摄像头的功能。
45.目标对象和设有第二传感器的终端处于同一空间内,也即,通过第二传感器获取的场景图像即为目标对象所在区域的场景环境。其中,场景图像可以是基于对目标对象所在的场景环境拍摄得到的图像,图像可以由第二传感器拍摄得到。图像的数量可以为多张,例如可以是10张、20张、50张等等,图像的数量越多,生成的场景图像越准确,但是相对而言生成场景图像的时间则更多,图像可以用于生成三维地图数据。
46.在其他实施例中,终端上搭载的第二传感器也可以为激光雷达等传感器,通过激光雷达等传感器,可以采集目标对象所在区域的三维点云,即三维地图数据可以由三维点云构建而成。
47.其中,虚拟形象可以是在场景图像中特定的虚拟内容,例如,人、动物或其他可用作虚拟形象的物体。在生成虚拟形象之后,可以直接将虚拟形象显示在场景图像中。
48.在一实施例中,在步骤s102之后,虚拟显示方法还可以包括:从场景图像中识别出生物数据,基于生物数据在场景图像生成虚拟形象。
49.场景图像是基于对目标对象所在的场景环境拍摄得到,在本实施例中,拍摄的图像中包括有生物数据和环境数据,通过将环境数据形成场景空间,并利用生物数据在形成的场景空间中生成虚拟形象。例如场景图像中包括大厦、公路、公路两旁的树等环境数据以及公路上的行人或动物等生物数据。其中,所获取得到的环境数据用于形成场景空间,所得到的生物数据则用于场景空间中生成虚拟形象。
50.步骤s103:基于用户数据更新虚拟形象。
51.通过采集的用户数据更新虚拟形象,以达到利用用户数据改变虚拟形象的显示状态的目的,例如,当用户数据为提取的目标对象的面部表情时,通过将提取的面部表情更新在虚拟形象的预设位置,从而利用用户表情覆盖在虚拟形象的预设位置,以改变虚拟形象的显示状态。
52.通过上述实施方式,可以利用第一传感器获取的用户数据更新基于第二传感器获取的场景图像所生成的虚拟形象,从而能够实现将两个传感器所获取的空间数据进行结合的目的,以丰富场景图像与目标对象的交互效果,提高使用的趣味性。
53.在一实施例中,步骤s103包括:响应于用户的第一操作指令,选择场景图像内的第一目标虚拟形象,基于用户数据更新第一目标虚拟形象。
54.第一操作指令可以为用户的语音信息、用户的触摸信息或用户输入的控制信号等。在本实施例中,场景图像中存在一个或多个虚拟形象,在利用用户数据对虚拟形象进行更新之前,用户可以发出第一操作指令,装置接收到第一操作指令后,在场景图像中选择一个或多个虚拟形象作为第一目标虚拟形象,并利用用户数据更新第一目标虚拟形象。
55.在另一实施例中,步骤s103还包括:响应于用户的第二操作指令,选择场景图像内的第二目标虚拟形象,基于用户数据更新场景图像中的第二目标虚拟形象,其中,第二目标虚拟形象包括除第一目标虚拟形象外的至少一个虚拟形象。
56.第二操作指令可以为用户的语音信息、用户的触摸信息或用户输入的控制信号等,在本实施例中,场景图像中存在多个虚拟形象,且除选定的第一目标虚拟形象之外,场景图像中还存在其他未被更新的虚拟形象。此时,在利用用户数据对虚拟形象进行更新之前,用户可以发出第二操作指令,装置接收到第二操作指令后在场景图像中选择一个或多个虚拟形象作为第二目标虚拟形象,并利用用户数据更新第二目标虚拟形象。此时,第二目标虚拟形象也可以包括之前已经渲染的第一目标虚拟形象。
57.通过上述实施方式,可以通过第一传感器获取的用户数据分别更新通过第二传感器所获取的场景图像中的多个虚拟形象,从而能够实现将两个传感器所获取的空间数据进行结合的目的,以丰富场景图像与目标对象的交互效果,提高使用的趣味性。
58.在一实施例中,用户数据包括用户的人脸关键点,上述步骤s103还包括:基于用户的人脸关键点,更新虚拟形象。
59.人脸关键点可以为人脸上的多个特征点,通过人脸关键点即可识别得到人脸的特征数据。例如利用人脸关键点可以识别出用户脸上的口、鼻、眼、耳或眉;亦或者利用人脸关键点还可以识别出人脸的轮廓,人脸的轮廓能够体现用户的脸型,包括圆形脸型,鹅蛋脸型或瓜子脸型等。如此,当识别出的人脸特征数据为五官或轮廓时,可以将人脸的五官或轮廓显示在虚拟形象上,此外,当识别出的人脸数据为人脸五官时,通过提取到的人脸五官还可以识别出人脸表情,以在虚拟形象上显示用户的表情信息。
60.上述可以利用人脸关键点得到的人脸的特征数据更新虚拟形象,当然,在其他实施例中,还可以利用人脸关键点查询对应的虚拟形象,以更新基于场景图像生成的虚拟形象。
61.进一步地,上述步骤:基于用户的人脸关键点,更新虚拟形象,包括:
62.基于用户的人脸关键点,识别用户的人脸表情类型;基于人脸表情类型查询对应的虚拟形象id,显示虚拟形象id的虚拟形象;人脸表情类型与虚拟形象id预先绑定。
63.在本实施例中,人脸关键点可以为人脸上的多个特征点,例如用户的口、鼻、眼、耳或眉上的特征点,通过提取的人脸五官上的特征点可以识别出人脸的表情类型,例如,人脸的表情类型可以包括笑、哭、怒、恐惧、激动、开心、无奈、鄙视等等。人脸的表情类型以预先绑定虚拟形象id,例如,当利用人脸关键点识别出的表情类型为笑时,其预先绑定的虚拟形象id为形象1,形象1中的虚拟形象可以预先设定,示例性地,形象1为某一动物的笑脸以及与该笑脸对应的环境背景;例如,当利用人脸关键点识别出的表情类型为无奈时,其预先绑定的虚拟形象id为形象2,形象2中的虚拟形象可以预先设定,示例性地,形象2为另一动物
的无奈表情以及与该无奈表情对应的环境背景。由此,当识别出用户的人脸表情类型,且基于人脸表情类型查询对应的虚拟形象id时,能够利用查询的对应的虚拟形象进行显示,能够丰富场景图像与目标对象的交互效果,提高使用的趣味性。
64.上述实施例中,利用获取的用户数据直接更新虚拟形象,在其他实施例中,还可以利用获取的用户数据的特征信息与虚拟形象的特征信息进行特征融合,并利用融合后的特征更新虚拟形象。
65.参见图2,图2是图1中步骤s103的一实施例流程示意图,具体而言,可以包括如下步骤s201~步骤s204:
66.步骤s201:从用户数据中提取第一预设位置的第一特征信息。
67.在本实施例中,第一预设位置可以为目标对象的人脸,第一特征信息可以为口、鼻、眼、耳和眉中的其中一个特征点或多个特征点上的特征信息。
68.步骤s202:识别虚拟形象上第二预设位置的第二特征信息。
69.在本实施例中,虚拟形象可以为虚拟人或其他虚拟生物,虚拟形象的第二预设位置可以为虚拟人的人脸,其所具有的第二特征信息同样为口、鼻、眼、耳和眉中的其中一个特征点或多个特征点上的特征信息。
70.步骤s203:将第一特征信息与第二特征信息进行融合,得到第三特征信息。
71.在本实施例中,可以将第一特征信息与第二特征信息进行融合,其融合后的特征信息为第三特征信息。在一实施例中,当提取的第一特征信息为口、鼻和眼三个特征信息,提取的第二特征信息为口、鼻、眼和眉,则将第一特征信息中的口、鼻和眼和第二特征信息的口、鼻、眼分别对应进行融合,而最终以融合后的口、鼻和眼作为第三特征信息,而眉部的特征信息保持不变。
72.步骤s204:基于第三特征信息更新虚拟形象。
73.在确定第三特征信息之后,利用第三特征信息更新虚拟形象的预设位置,例如预设位置为上述虚拟形象的第二预设位置,并以更新有第三特征信息的虚拟形象作为其显示状态。
74.参见图3,图3是图1中步骤s103的另一实施例流程示意图,具体而言,可以包括如下步骤s301~步骤s303:
75.步骤s301:从用户数据中识别目标对象的人脸特征信息。
76.在本实施例中,用户数据可以包括目标对象的人脸数据,以便于从用户数据中识别出目标对象的人脸特征信息,其中,人脸特征信息可以包括人脸轮廓以及人脸的五官数据。
77.步骤s302:基于人脸特征信息生成目标对象的表情信息。
78.在本实施例中,可以从识别出的目标对象的人脸特征信息中提取其眼部肌肉、颜面肌肉和口部肌肉等信息,并将其与无表情时的相关信息的作出比较,并基于信息之间的变化来表现各种情绪状态,例如,最终生成的目标对象的表情信息可以包括笑、哭、怒、恐惧、激动、开心、无奈、鄙视等等。
79.步骤s303:基于表情信息映射至虚拟形象的面部。
80.在本实施例中,在将表情信息映射至虚拟形象的面部之前可以预先定位虚拟形象的位置,在虚拟形象的位置满足预设位置的情况下,才基于表情信息映射至虚拟形象的面
部。例如,场景图像中可能存在较多环境信息,包括公路、公路两旁的大厦以及公路与大厦之间的植物等,通过虚拟形象与环境物的相对位置,确定虚拟形象在虚拟空间的位置。示例性地,定位虚拟形象位于公路上、大厦楼顶或植物旁等等,在确定虚拟形象的位置之后,确定虚拟形象是否处于预设位置,在确定虚拟形象处于场景图像的公路上时,确定虚拟形象处于预设位置,当预设虚拟形象处于场景图像中的大厦楼顶时,则确定虚拟形象不处于预设位置。
81.通过上述实施方式,可以在场景图像中具有多个虚拟形象时,可以选择性的将表情信息更新在部分虚拟形象的面部。
82.上述实施例中可以通过单帧图像实现静态虚拟形象在场景图像内的投影,进一步地,本技术还可以通过连续多帧的图像实现动态虚拟动画在场景图像内的投影,以提高用户与场景图像的互动效果。
83.参见图4,图4是本技术提供的虚拟显示方法另一实施例的流程示意图,具体而言,可以包括如下步骤s401~步骤s404:
84.步骤s401:基于第一传感器获取目标对象的连续多帧图像。
85.在本实施例中,目标对象在空间中可能处于非静止状态,通过第一传感器获取目标对象在空间中的连续多帧图像,例如,获取的目标对象的连续多帧图像可以为10张、20张、50张等等,当获取的目标图像越多,最终生成的动画时间越长。
86.步骤s402:从连续多帧图像中识别目标对象的用户数据。
87.在本实施例中,连续多帧图像中的每张图像均存在目标对象,从连续多帧图像中分别识别目标对象的用户数据,可以得到连续变化的用户数据,该连续变化的用户数据共同组成目标对象动画。例如,用户数据为目标对象的表情信息,在通过从连续多帧的图像中识别得到的用户数据为目标对象在该段时间内的表情变化所形成的动画。
88.步骤s403:基于第二传感器获取目标对象所在的场景图像,基于场景图像生成虚拟形象。
89.在本实施例中,步骤s403与上述步骤s102的实施方式相同,在此不再赘述。
90.步骤s404:基于连续多帧图像的用户数据生成虚拟动画以更新虚拟形象。
91.在本实施例中,将获取的用户数据按照其对应图像的获取的先后顺序,分别更新到场景图像的虚拟形象上,以在虚拟形象渲染虚拟动画。该虚拟动画能够模仿出用户数据在该段时间内的变化情况,能够进一步丰富场景图像,提高使用的趣味性。
92.通过上述方式,可以通过第一传感器获取的具有动画效果的用户数据并更新基于第二传感器获取的场景图像所生成的虚拟形象,以能够得到更新有虚拟动画的虚拟形象,从而能够实现将两个传感器所获取的空间数据进行结合的目的,以丰富场景图像与目标对象的交互效果,提高使用的趣味性。
93.本实施例中的虚拟显示方法可以应用于虚拟现实显示装置,本技术的虚拟现实显示装置可以为服务器,也可以为移动设备,还可以为由服务器和移动设备相互配合的系统。相应地,移动设备包括的各个部分,例如各个单元、子单元、模块、子模块可以全部设置于服务器中,也可以全部设置于移动设备中,还可以分别设置于服务器和移动设备中。
94.进一步地,上述服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可
以实现成多个软件或软件模块,例如用来提供分布式服务器的软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。
95.为实现上述实施例的虚拟显示方法,本技术提供了一种虚拟现实显示装置。参见图5,图5是本技术提供的虚拟现实显示装置50一实施例结构示意图。
96.具体地,虚拟现实显示装置50可以包括:获取模块51、生成模块52以及更新模块53。
97.获取模块51用于基于第一传感器获取目标对象的用户数据,以及基于第二传感器获取目标对象所在的场景图像。
98.生成模块52用于基于场景图像生成虚拟形象。
99.更新模块53用于基于用户数据更新虚拟形象。
100.上述方案可以利用第一传感器获取的用户数据更新基于第二传感器获取的场景图像所生成的虚拟形象,从而能够实现将两个传感器所获取的空间数据进行结合的目的,以丰富场景图像与目标对象的交互效果,提高使用的趣味性。
101.其中,在本技术的一个实施例,图5所示的虚拟现实显示装置50中的各个模块可以分别或全部合并为一个或若干个单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个子单元,可以实现同样的操作,而不影响本技术的实施例的技术效果的实现。上述模块是基于逻辑功能划分的,在实际应用中,一个模块的功能也可以由多个单元来实现,或者多个模块的功能由一个单元实现。在本技术的其它实施例中,虚拟现实显示装置50也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。
102.上述方法应用于虚拟现实显示设备中。具体请参阅图6,图6是本技术提供的虚拟现实显示设备60一实施例的结构示意图,本实施例虚拟现实显示设备60包括处理器61和存储器62。其中,存储器62中存储有计算机程序,处理器61用于执行计算机程序以实现上述虚拟显示方法。
103.其中,处理器61可以是一种集成电路芯片,具有信号的处理能力。处理器61还可以是通用处理器、数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
104.对于图1-图4所示实施例的虚拟显示方法,其可以计算机程序的形式呈现,本技术提出一种承载计算机程序的计算机存储介质,请参阅图7,图7是本技术提供的计算机存储介质一实施例的结构示意图,本实施例计算机存储介质70包括计算机程序71,其可被执行以实现上述虚拟显示方法。
105.本实施例计算机存储介质70可以是u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等可以存储程序指令的介质,或者也可以为存储有该程序指令的服务器,该服务器可将存储的程序指令发送给其他设备运行,或者也可以自运行该存储的程序指令。
106.另外,上述功能如果以软件功能的形式实现并作为独立产品销售或使用时,可存储在一个移动终端可读取存储介质中,即,本技术还提供一种存储有程序数据的存储装置,所述程序数据能够被执行以实现上述实施例的方法,该存储装置可以为如u盘、光盘、服务
器等。也就是说,本技术可以以软件产品的形式体现出来,其包括若干指令用以使得一台智能终端执行各个实施例所述方法的全部或部分步骤。
107.在本技术的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本技术的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
108.此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本技术的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
109.流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本技术的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本技术的实施例所属技术领域的技术人员所理解。
110.在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(可以是个人计算机,服务器,网络设备或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
111.以上所述仅为本技术的实施方式,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本技术的专利保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1