AR眼镜交互方法、装置、计算机可读存储介质及AR眼镜与流程

文档序号:29616251发布日期:2022-04-13 11:44阅读:86来源:国知局
AR眼镜交互方法、装置、计算机可读存储介质及AR眼镜与流程
ar眼镜交互方法、装置、计算机可读存储介质及ar眼镜
技术领域
1.本技术涉及智能可穿戴设备领域,具体涉及一种ar眼镜交互方法、装置、计算机可读存储介质及ar眼镜。


背景技术:

2.基于视觉的手势识包含手势分割、手势形状特征提取、手势识别三个过程,在图像识别领域,ar技术作为一项新兴的技术不断发展,由此衍生出众多的智能穿戴设备,包括ar眼镜,ar头盔等,而目前ar眼镜主要是将已有的图像在输出后进行展示,且大多通过ar眼镜上的功能按钮控制所展示的图像,目前该种交互方式无法高效、多方位地让用户与ar眼镜进行交互,造成ar眼镜的使用场景少,交互效率低,从而造成资源的浪费。


技术实现要素:

3.为克服以上技术问题,特别是现有技术ar眼镜的交互使用场景少、适应性低以及效率低的问题,特提出以下技术方案:
4.第一方面,本技术提供了一种ar眼镜交互方法,包括:
5.识别用户的手部动作;
6.当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处;
7.识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。
8.进一步的,所述当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面,包括:
9.当所述手部动作为抬起手腕动作时,获取抬起手腕动作对应的腕表用户界面,在ar眼镜中输出所述腕表用户界面,所述腕表用户界面包含的若干个子界面与识别到的用户手部位置按照预设关系排布。
10.进一步的,所述识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,包括:
11.识别用户在手部位置的操作,确定所述手部位置对应的腕表用户界面的子界面,生成对所述子界面的控制指令,根据所述控制指令控制子界面进行响应,在ar眼镜中输出响应后的子界面。
12.进一步的,所述当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面,包括:
13.当所述手部动作为翻转手腕动作时,获取翻转手腕动作对应的多媒体用户界面,在ar眼镜中输出所述多媒体用户界面,所述多媒体用户界面包含的若干个操作控件与识别到的用户手部位置按照预设关系排布。
14.进一步的,所述识别用户在手部位置的操作,确定所述操作对应的控制指令,根据
所述控制指令进行交互,包括:
15.识别用户在手部位置的操作,确定所述手部位置对应的操作控件,生成对所述操作控件的控制指令,根据所述控制指令控制多媒体用户界面进行响应,在ar眼镜中输出响应后的多媒体用户界面。
16.进一步的,所述识别用户的手部动作,包括:
17.当用户的手部进入ar眼镜的识别范围后,识别用户的手部动作。
18.进一步的,所述方法还包括:
19.当用户的手部超过ar眼镜的识别范围后,关闭ar眼镜输出的交互界面。
20.第二方面,本技术提供一种动态手势动作识别装置,包括:
21.识别模块:用于识别用户的手部动作;
22.输出模块:用于当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处;
23.交互模块:用于识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。
24.第三方面,本技术还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述的ar眼镜交互方法。
25.第四方面,本技术还提供了一种ar眼镜,所述控制终端包括一个或多个处理器、存储器、一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于执行上述的ar眼镜交互方法。
26.本技术与现有技术相比,具有以下有益效果:
27.本技术提供了一种结合手部动作进行ar眼镜的交互方法,通过ar眼镜配备的摄像设备捕捉用户手部动作的图像,识别用户的手部动作,并在数据库中为不同的预设动作匹配不同的交互界面,当识别用户的手部动作后,将所述手部动作与预设动作相匹配,当所述手部动作与预设动作匹配时,则获取所述预设动作对应的交互界面,再在所述ar眼镜中输出所述交互界面,佩戴ar眼镜的用户便能通过所述ar眼镜浏览对应的交互界面,且所述交互界面按照预设排布分布在用户的手部位置处,在视觉上即是将所述交互界面悬浮设置于手部位置上,然后通过识别用户在手部位置的操作进行响应,交互界面随着识别到的用户的在手部位置的操作而变化,并在ar眼镜中输出交互过程,通过ar眼镜便可浏览交互的整个过程,与手部动作的结合提高ar眼镜的交互场景的适用性,并提高ar眼镜交互的效率。
28.本技术附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本技术的实践了解到。
附图说明
29.本技术上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
30.图1为本技术ar眼镜交互方法的一实施例流程示意图;
31.图2为本技术腕表用户界面的一实施例示意图;
32.图3为本技术腕表用户界面的一应用实施例示意图;
33.图4为本技术腕表用户界面的“天气日期面板”中的天气详情页的一实施例示意图;
34.图5为本技术多媒体用户界面的一实施例示意图;
35.图6为本技术多媒体用户界面为文档浏览界面的一实施例示意图;
36.图7为本技术多媒体用户界面为视频浏览界面的一实施例示意图;
37.图8为本技术ar眼镜交互装置的一实施例示意图;
38.图9为本技术ar眼镜的一实施例结构示意图。
具体实施方式
39.下面详细描述本技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本技术,而不能解释为对本技术的限制。
40.本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本技术的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作。
41.本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本技术所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
42.本技术实施例提供一种ar眼镜交互方法,如图1所示,所述方法包括以下步骤:
43.s10:识别用户的手部动作。
44.本实施例应用于ar眼镜的佩戴场景中,用户佩戴了ar眼镜,ar眼镜上装配有摄像设备及显示设备,摄像设备能够捕捉ar眼镜前方特定范围内的图像,当用户控制手部做出某个动作,同时用户佩戴ar眼镜并将视线转向手部,此时ar眼镜能够捕捉到用户的手部动作的图像,然后基于图像分割原理及图像识别原理识别用户的手部动作。在一种实施方式中,ar眼镜识别用户的动态手部动作,即ar眼镜从捕捉到用户的手部图像到用户的手部图像的变化值在设定范围内时,确定用户完成了动态手部动作,此时ar眼镜捕捉到动态手部动作并识别该动态手部动作,例如识别用户的“抬起手腕”的动态手部动作。识别用户的“翻转手腕”的动态手部动作;在另一种实施方式中,ar眼镜识别用户的静态手部动作,即ar眼镜捕捉到用户的手部图像的变化值在设定范围内时图像作为捕捉到的用户手部动作,例如识别到用户的“五指张开”的静态手部动作,识别到用户的“ok手势”的静态手部动作。
45.s20:当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处。
46.当识别用户的手部动作后,将所述手部动作与预设的手部动作相匹配,在数据库中,不同的预设动作与不同的交互场景相匹配,不同的交互场景配置了相应的交互界面,例如预设动作a1对应交互场景b1,配置了交互界面p1;预设动作a2对应交互场景b2,配置了交
互界面p2,当所述手部动作与预设动作匹配时,则获取所述预设动作对应的交互界面,再在所述ar眼镜中输出所述交互界面,ar眼镜上装备有显示设备,在ar眼镜的显示设备上输出所述交互界面,佩戴ar眼镜的用户便能通过所述ar眼镜浏览对应的交互界面。
47.在一种实施方式中,由于交互界面的产生源于用户的手部动作以及用户佩戴ar眼镜并将视线转向手部,为了使得输出的交互界面符合现实场景的需求,本实施例中,所述交互界面按照预设排布分布在用户的手部位置处,在视觉上即是将所述交互界面悬浮设置于手部位置上。
48.s30:识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。
49.当所述交互界面按照预设排布分布在用户的手部位置处后,用户还可以在手部位置处进行页面交互,具体的通过识别用户在手部位置的操作完成页面交互,本实施例中,考虑到不同用户的操作习惯不同,若所述交互界面按照预设排布分布在用户的左手位置,ar眼镜便识别用户的右手在左手的手部位置上的操作,若所述交互界面按照预设排布分布在用户的右手位置,ar眼镜便识别用户的左手在右手的手部位置上的操作,当识别到用户在手部位置的操作后,不同的操作对应不同的交互类型,此时确定所述操作对应的控制指令,然后根据所述控制指令在所述交互界面进行响应,即所述交互界面随着识别到的用户的在手部位置的操作而变化,并在ar眼镜中输出交互过程,通过ar眼镜便可浏览交互的整个过程,通过与手部动作的结合提高ar眼镜的交互场景的适用性,并提高ar眼镜交互的效率。
50.本实施例提供了一种结合手部动作进行ar眼镜的交互方法,通过ar眼镜配备的摄像设备捕捉用户手部动作的图像,识别用户的手部动作,并在数据库中为不同的预设动作匹配不同的交互界面,当识别用户的手部动作后,将所述手部动作与预设动作相匹配,当所述手部动作与预设动作匹配时,则获取所述预设动作对应的交互界面,再在所述ar眼镜中输出所述交互界面,佩戴ar眼镜的用户便能通过所述ar眼镜浏览对应的交互界面,且所述交互界面按照预设排布分布在用户的手部位置处,在视觉上即是将所述交互界面悬浮设置于手部位置上,然后通过识别用户在手部位置的操作进行响应,交互界面随着识别到的用户的在手部位置的操作而变化,并在ar眼镜中输出交互过程,通过ar眼镜便可浏览交互的整个过程,与手部动作的结合提高ar眼镜的交互场景的适用性,并提高ar眼镜交互的效率。
51.本技术的一种实施例,所述当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面,包括:
52.当所述手部动作为抬起手腕动作时,获取抬起手腕动作对应的腕表用户界面,在ar眼镜中输出所述腕表用户界面,所述腕表用户界面包含的若干个子界面与识别到的用户手部位置按照预设关系排布。
53.本实施例中,所述手部动作为抬起手腕动作,当用户抬起手腕且佩戴ar眼镜的视线转向手部时,识别用户的手部动作为抬起手腕动作,此时获取所述预设动作对应的交互界面,抬起手腕动作对应的是腕表用户界面,如图2所示是腕表用户界面的一实施例示意图,同时在ar眼镜中输出所述腕表用户界面,进一步的,所述腕表用户界面包含的若干个子界面与识别到的用户手部位置按照预设关系排布,在一种实施方式中,如图2所示,在手腕位置处显示“手表”子界面,在手背位置处显示“联系人”子界面,并在手腕左侧及上侧分别显示“待办”子界面、“日期”子界面及“媒体控件”子界面。将腕表用户界面包含的若干个子
界面与用户手部位置按照预设关系排布,能够使得用户界面更加贴合用户的手部,从而方便用户进行与所述用户界面的交互。
54.本技术的一种实施例,所述识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,包括:
55.识别用户在手部位置的操作,确定所述手部位置对应的腕表用户界面的子界面,生成对所述子界面的控制指令,根据所述控制指令控制子界面进行响应,在ar眼镜中输出响应后的子界面。
56.当ar眼镜输出了腕表用户界面后,用户可以在手部上进行操作与腕表用户界面进行交互,此时ar眼镜识别用户在手部位置的操作,确定所述操作的手部位置对应的腕表用户界面的子界面,从而生成对所述子界面的控制指令,然后根据所述控制指令控制子界面进行响应,并在ar眼镜中输出响应后的子界面以及整个交互过程,在一种实施方式中,当识别到用户在手背位置上的操作,则确定操作的对象为“联系人”子界面,当识别到用户在手腕位置上的操作,则确定操作的对象为“手表”子界面。如图3所示是腕表用户界面的一应用实施例示意图,“腕表用户界面”中包含几个子面板:天气日期面板、常用联系人面板、待办面板、媒体播放面板以及时间表盘,当识别到用户在手部上的天气日期面板位置上的操作后,生成相应的点击控制指令,根据所述控制指令点击天气日期面板后,腕表用户界面会跳转至如图4所示的天气详情页。通过识别用户在手部上的动作,与完成ar眼镜交互,提高了ar眼镜交互的效率。
57.本技术的一种实施例,所述当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面,包括:
58.当所述手部动作为翻转手腕动作时,获取翻转手腕动作对应的多媒体用户界面,在ar眼镜中输出所述多媒体用户界面,所述多媒体用户界面包含的若干个操作控件与识别到的用户手部位置按照预设关系排布。
59.本实施例,所述手部动作为翻转手腕动作,当用户翻转手腕且佩戴ar眼镜的识别到用户的手部动作为翻转手腕动作,此时获取所述预设动作对应的交互界面,翻转手腕动作对应的是多媒体用户界面,如图5所示是多媒体用户界面的一实施例示意图,同时在ar眼镜中输出所述多媒体用户界面,进一步的,所述多媒体用户界面包含的若干个操作控件与识别到的用户手部位置按照预设关系排布,在一种实施方式中,如图5所示,在手臂小臂位置处显示“媒体播放界面”,在靠近手肘位置处显示“媒体控件”,并在手臂小臂右侧显示“媒体播放界面”的放大界面。将多媒体用户界面包含的若干个操作控件与用户手部位置按照预设关系排布,能够使得用户界面更加贴合用户的手部,从而方便用户进行与所述用户界面的交互。
60.本技术的一种实施例,所述识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令进行交互,包括:
61.识别用户在手部位置的操作,确定所述手部位置对应的操作控件,生成对所述操作控件的控制指令,根据所述控制指令控制多媒体用户界面进行响应,在ar眼镜中输出响应后的多媒体用户界面。
62.当ar眼镜输出了多媒体用户界面后,用户可以在手部上进行操作与多媒体用户界面进行交互,此时ar眼镜识别用户在手部位置的操作,确定所述操作的手部位置对应的多
媒体用户界面的操作控件,从而生成所述操作控件的控制指令,然后根据所述控制指令控制多媒体用户界面进行响应,并在ar眼镜中输出响应后的多媒体用户界面以及整个交互过程。在一种实施方式中,所述多媒体用户界面为文档浏览界面,当识别到用户在在小臂上滑动的操作,则确定操作的对象为文档界面,生成相应对所述文档界面上下滚动的控制指令,然后控制文档进行滚动及翻页。在一种实施方式中,当识别到用户的手掌张开,通过识别手掌张开的程度控制文档的缩放。在一种实施方式中,用户通过操作手的食指进行点击,单击文档则在文档预览窗口显示出该文档的预览效果,双击文档则进入阅读文档并切换到文档界面中。通过识别用户在手部上的动作,与完成ar眼镜交互,提高了ar眼镜交互的效率。
63.如图6所示是多媒体用户界面为文档浏览界面的一实施例示意图,通过识别用户在手部上的操作可以放大或缩小局部的文档界面以及对文档界面进行滚动、翻页;如图7所示是多媒体用户界面为视频浏览界面的一实施例示意图,通过识别用户在手部上的操作可以选择播放的具体视频,以及调节视频的进度及声音等设置。
64.本技术的一种实施例,所述识别用户的手部动作,包括:
65.当用户的手部进入ar眼镜的识别范围后,识别用户的手部动作;
66.所述方法还包括:
67.当用户的手部超过ar眼镜的识别范围后,关闭ar眼镜输出的交互界面。
68.本实施例中,ar眼镜识别用户的手部动作是在用户的手部进入ar眼镜的识别范围后进行识别,例如,当用户的手部距离ar眼镜50里面范围内时,ar眼镜才进行有效地识别用户的手部动作,从而避免无效的动作识别而浪费过多的资源;进一步的,当用户的手部超过ar眼镜的识别范围后,关闭ar眼镜输出的交互界面,从而节省ar眼镜的资源,提高资源的利用率。
69.如图8所示,在另一种实施例中,本技术提供了一种ar眼镜交互装置,包括:
70.识别模块10:用于识别用户的手部动作;
71.输出模块20:用于当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处;
72.交互模块30:用于识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。
73.本技术的一种实施例,所述输出模块20还包括执行:
74.当所述手部动作为抬起手腕动作时,获取抬起手腕动作对应的腕表用户界面,在ar眼镜中输出所述腕表用户界面,所述腕表用户界面包含的若干个子界面与识别到的用户手部位置按照预设关系排布。
75.本技术的一种实施例,所述交互模块30还包括执行:
76.识别用户在手部位置的操作,确定所述手部位置对应的腕表用户界面的子界面,生成对所述子界面的控制指令,根据所述控制指令控制子界面进行响应,在ar眼镜中输出响应后的子界面。
77.本技术的一种实施例,所述输出模块20还包括执行:
78.当所述手部动作为翻转手腕动作时,获取翻转手腕动作对应的多媒体用户界面,在ar眼镜中输出所述多媒体用户界面,所述多媒体用户界面包含的若干个操作控件与识别
到的用户手部位置按照预设关系排布。
79.本技术的一种实施例,所述交互模块30还包括执行:
80.识别用户在手部位置的操作,确定所述手部位置对应的操作控件,生成对所述操作控件的控制指令,根据所述控制指令控制多媒体用户界面进行响应,在ar眼镜中输出响应后的多媒体用户界面。
81.本技术的一种实施例,所述识别模块10还包括执行:
82.当用户的手部进入ar眼镜的识别范围后,识别用户的手部动作。
83.本技术的一种实施例,所述识别模块10还包括执行:
84.当用户的手部超过ar眼镜的识别范围后,关闭ar眼镜输出的交互界面。
85.在另一种实施例中,本技术提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例所述的ar眼镜交互方法。其中,所述计算机可读存储介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、cd-rom、和磁光盘)、rom(read-only memory,只读存储器)、ram(random access memory,随即存储器)、eprom(erasable programmable read-only memory,可擦写可编程只读存储器)、eeprom(electrically erasable programmable read-only memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,存储设备包括由设备以能够读的形式存储或传输信息的任何介质,可以是只读存储器,磁盘或光盘等。
86.本技术实施例提供的一种计算机可读存储介质,可实现识别用户的手部动作;当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处;识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。通过提供一种结合手部动作进行ar眼镜的交互方法,通过ar眼镜配备的摄像设备捕捉用户手部动作的图像,识别用户的手部动作,并在数据库中为不同的预设动作匹配不同的交互界面,当识别用户的手部动作后,将所述手部动作与预设动作相匹配,当所述手部动作与预设动作匹配时,则获取所述预设动作对应的交互界面,再在所述ar眼镜中输出所述交互界面,佩戴ar眼镜的用户便能通过所述ar眼镜浏览对应的交互界面,且所述交互界面按照预设排布分布在用户的手部位置处,在视觉上即是将所述交互界面悬浮设置于手部位置上,然后通过识别用户在手部位置的操作进行响应,交互界面随着识别到的用户的在手部位置的操作而变化,并在ar眼镜中输出交互过程,通过ar眼镜便可浏览交互的整个过程,与手部动作的结合提高ar眼镜的交互场景的适用性,并提高ar眼镜交互的效率。
87.本技术实施例提供的计算机可读存储介质可以实现上述ar眼镜交互方法的实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
88.此外,在又一种实施例中,本技术还提供一种ar眼镜,如图9所示,所述控制终端包括处理器403、存储器405、输入单元407以及显示单元409等器件。本领域技术人员可以理解,图9示出的结构器件并不构成对所有ar眼镜的限定,可以包括比图示更多或更少的部件,或者组合某些部件。所述存储器405可用于存储计算机程序401以及各功能模块,所述处理器403运行存储在存储器405的计算机程序401,从而执行设备的各种功能应用以及数据处理。
89.在一种实施方式中,所述ar眼镜包括一个或多个处理器403,以及一个或多个存储器405,一个或多个计算机程序401,其中所述一个或多个计算机程序401被存储在存储器405中并被配置为由所述一个或多个处理器403执行,所述一个或多个计算机程序401配置用于执行以上实施例所述的ar眼镜交互方法。图9中所示的一个或多个处理器403能够执行、实现图8中所示的识别模块10、输出模块20、交互模块30的功能。
90.本技术实施例提供的一种ar眼镜,可实现识别用户的手部动作;当所述手部动作与预设动作匹配时,获取所述预设动作对应的交互界面,在所述ar眼镜中输出所述交互界面;所述交互界面按照预设排布分布在用户的手部位置处;识别用户在手部位置的操作,确定所述操作对应的控制指令,根据所述控制指令在所述交互界面进行响应,并在ar眼镜中输出交互过程。通过提供一种结合手部动作进行ar眼镜的交互方法,通过ar眼镜配备的摄像设备捕捉用户手部动作的图像,识别用户的手部动作,并在数据库中为不同的预设动作匹配不同的交互界面,当识别用户的手部动作后,将所述手部动作与预设动作相匹配,当所述手部动作与预设动作匹配时,则获取所述预设动作对应的交互界面,再在所述ar眼镜中输出所述交互界面,佩戴ar眼镜的用户便能通过所述ar眼镜浏览对应的交互界面,且所述交互界面按照预设排布分布在用户的手部位置处,在视觉上即是将所述交互界面悬浮设置于手部位置上,然后通过识别用户在手部位置的操作进行响应,交互界面随着识别到的用户的在手部位置的操作而变化,并在ar眼镜中输出交互过程,通过ar眼镜便可浏览交互的整个过程,与手部动作的结合提高ar眼镜的交互场景的适用性,并提高ar眼镜交互的效率。
91.本技术实施例提供的ar眼镜可以实现上述提供的ar眼镜交互方法的实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
92.以上所述仅是本技术的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本技术的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1