交互方法、装置、头戴显示设备、电子设备及介质与流程

文档序号:30303540发布日期:2022-06-05 02:31阅读:76来源:国知局
交互方法、装置、头戴显示设备、电子设备及介质与流程

1.本公开涉及人机交互技术领域,尤其涉及人工智能技术领域、以及增强现实/虚拟现实技术领域,具体涉及交互方法、装置、头戴显示设备、电子设备、存储介质以及程序产品。


背景技术:

[0002]“可体验的人机交互时代”可以是指利用虚拟现实或者增强现实等技术来实现人机交互的时代。头戴显示设备也应运而生。头戴显示设备提供给用户的内容形式发生质的变化,例如从二维到三维,从平面到立体。头戴显示设备提供给用户的交互方式也发生了变化,例如从手柄控制交互到手势控制交互或者语音控制交互。


技术实现要素:

[0003]
本公开提供了一种交互方法、装置、头戴显示设备、电子设备、存储介质以及程序产品。
[0004]
根据本公开的一方面,提供了一种交互方法,包括:响应于确定已进入预定交互模式,确定眼部聚焦信息,其中,所述预定交互模式是基于头部控制信息确定的,所述眼部聚焦信息用于表征用户视线在显示界面上的聚焦位置;以及根据所述眼部聚焦信息,执行对所述显示界面上的目标元素的目标操作。
[0005]
根据本公开的另一方面,提供了一种交互装置,包括:聚焦确定模块,用于响应于确定已进入预定交互模式,确定眼部聚焦信息,其中,所述预定交互模式是基于头部控制信息确定的,所述眼部聚焦信息用于表征用户视线在显示界面上的聚焦位置;以及执行模块,用于根据所述眼部聚焦信息,执行对所述显示界面上的目标元素的目标操作。
[0006]
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如本公开的方法。
[0007]
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如本公开的方法。
[0008]
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如本公开的方法。
[0009]
根据本公开的另一方面,提供了一种头戴显示设备,包括本公开所述的电子设备。
[0010]
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0011]
附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0012]
图1示意性示出了根据本公开实施例的可以应用交互方法及装置的示例性系统架构;
[0013]
图2示意性示出了根据本公开实施例的交互方法的流程图;
[0014]
图3示意性示出了根据本公开实施例的显示界面的示意图;
[0015]
图4a示意性示出了根据本公开实施例的执行目标操作的示意图;
[0016]
图4b示意性示出了根据本公开另一实施例的执行目标操作的示意图;
[0017]
图5示意性示出了根据本公开实施例的退出预定交互模式的示意图;
[0018]
图6示意性示出了根据本公开另一实施例的交互方法的流程图;
[0019]
图7示意性示出了根据本公开实施例的交互装置的框图;以及
[0020]
图8示意性示出了根据本公开实施例的适于实现交互方法的电子设备的框图。
具体实施方式
[0021]
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0022]
本公开提供了一种交互方法、装置、头戴显示设备、电子设备、存储介质以及程序产品。
[0023]
根据本公开的实施例,提供了一种交互方法,可以包括:响应于确定已进入预定交互模式,确定眼部聚焦信息,其中,预定交互模式是基于头部控制信息确定的,眼部聚焦信息用于表征用户视线在显示界面上的聚焦位置;以及根据眼部聚焦信息,执行对显示界面上的目标元素的目标操作。
[0024]
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
[0025]
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
[0026]
图1示意性示出了根据本公开实施例的可以应用交互方法及装置的示例性系统架构。
[0027]
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
[0028]
如图1所示,该实施例的系统架构100可以包括头戴显示设备101。头戴显示设备的类型不做限定,例如可以包括ar(augmented reality,增强现实)头戴显示设备、vr(virtual reality,虚拟现实)头戴显示设备或者mr(mediated reality,介导现实)显示设备。头戴显示设备的形式不做限定,例如可以包括智能眼镜、护目镜、或者智能头盔等。
[0029]
根据本公开的实施例,头戴显示设备101可以是通过外接式或者接入式的方式与终端设备例如手机或者电脑等连接。终端设备可以作为头戴显示设备101的处理和存储设备,以控制显示设备显示的虚拟内容。但是并不局限于此。头戴显示设备101还可以内置处
理器和存储器,用于存储并控制显示设备的虚拟内容。
[0030]
根据本公开的实施例,头戴显示设备101可以包括图形交互的显示界面、眼动跟踪装置以及头动跟踪装置。显示界面可以用于显示虚拟内容,以便用户观看和控制。眼动跟踪装置可以包括例如红外摄像头、以及红外光源等,用于追踪用户视线在显示界面的聚焦位置,进而得到眼部聚焦信息或者眼部动作信息。头动跟踪装置可以包括多轴运动传感器,用于跟踪用户头部的动作,以便根据头部的动作得到头部动作信息或者头部控制信息。
[0031]
需要说明的是,根据用户视线或者用户的眼珠动作来得到眼部聚焦信息或者眼部动作信息的计算方式不做限定。根据用户头部的动作得到头部动作信息或者头部控制信息的计算方式不做限定。根据现有技术提供的计算方式即可,在此不再赘述。
[0032]
应注意,以下方法中各个操作的序号仅作为该操作的表示以便描述,而不应被看作表示该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
[0033]
图2示意性示出了根据本公开实施例的交互方法的流程图。
[0034]
如图2所示,该方法包括操作s210~s220。
[0035]
在操作s210,响应于确定已进入预定交互模式,确定眼部聚焦信息,其中,预定交互模式是基于头部控制信息确定的,眼部聚焦信息用于表征用户视线在显示界面上的聚焦位置。
[0036]
在操作s220,根据眼部聚焦信息,执行对显示界面上的目标元素的目标操作。
[0037]
根据本公开的实施例,目标元素可以指显示界面上显示的画面例如虚拟画面中包含的元素。目标元素可以包括控件、文本框、视窗等界面元素中的一种或多种,但是并不局限于此,目标元素还可以包括按钮、拖曳组件、下拉菜单、滑动组件等中的一种或多种,目标元素还可以包括图片、文字、文档、页面等中的一种或多种。
[0038]
根据本公开的实施例,目标操作可以包括针对目标元素的操作。目标操作可以包括移动操作、旋转操作、选择操作、删除操作、页面切换操作、放大操作、缩小操作、滑动操作、翻页操作等中的一种或多种。
[0039]
根据本公开的实施例,可以基于头部控制信息来控制是否进入预定交互模式。头部控制信息可以用于表征基于用户头部动作来得到的交互控制信息,用于代替手柄或者手动按钮来实现控制界面的操作。利用头部控制信息来进行控制,可以解放双手,提高用户体验。
[0040]
根据本公开的实施例,预定交互模式可以是指利用眼部聚焦信息来控制执行针对显示界面的元素的操作的交互模式,但是并不局限于此,还可以是指利用眼部聚焦信息以及头部控制信息的结合来控制执行针对显示界面的元素的操作的交互模式。
[0041]
根据本公开的实施例,利用头部控制信息以及眼部聚焦信息来与头戴显示设备进行交互,可以在遇到周围环境嘈杂或双手不方便的情况下,避免使用语音交互、手势交互或者手动按键交互而导致的交互困难的问题。
[0042]
根据本公开的实施例,相比于基于头部控制信息来执行对显示界面上的目标元素的目标操作,基于眼部聚焦信息来执行对显示界面上的目标元素的目标操作,可以将头部动作与眼部动作结合,使得交互方式的种类增多,进而使得在显示界面的显示内容切换的过程中,避免因采用单一的交互方式来控制而导致的误操作的问题,使得交互更为灵敏且
智能。
[0043]
根据本公开的实施例,在执行操作s210响应于确定已进入预定交互模式,确定眼部聚焦信息之前,交互方法还可以包括如下操作。
[0044]
例如,采集头部控制信息。响应于确定头部控制信息与进入预定交互模式的触发指令相匹配,执行进入预定交互模式的操作。
[0045]
根据本公开的实施例,头部控制信息可以是用户利用头部动作来确定的交互控制信息。头部控制信息可以用于表征用户的交互意图。利用头部控制信息可以使得用户解放双手。与进入预定交互模式的触发指令相匹配的头部控制信息的动作不做限定。可以预先确定与进入预定交互模式的触发指令相匹配的预定指令操作。在确定采集到的头部控制信息与预定指令操作一致的情况下,确定接收到进入预定交互模式的触发指令。响应于确定接收到进入预定交互模式的触发指令,执行进入预定交互模式的操作。
[0046]
根据本公开的实施例,针对操作s210,响应于确定已进入预定交互模式后,开启眼部跟踪功能,采集用户的眼部动作信息。可以根据眼部动作信息确定用户注视显示界面的位置信息,并将用户注视显示界面的位置信息作为眼部聚焦信息,以便根据眼部聚焦信息来执行对目标元素的目标操作。
[0047]
根据本公开的其他实施例,针对操作s210,响应于确定已进入预定交互模式后,开启眼部跟踪功能,采集用户的眼部动作信息。还可以确定与眼部动作信息相匹配的目标触发指令。基于目标触发指令,执行确定眼部聚焦信息的操作。在眼部动作信息与目标触发指令不相匹配的情况下,继续执行采集眼部动作信息的操作。但是并不局限于此。还可以确定与眼部动作信息、以及头部动作信息相匹配的目标触发指令,基于目标触发指令,执行确定眼部聚焦信息的操作。
[0048]
根据本公开的实施例,头部动作信息可以是用户利用头部动作来确定的控制信息。头部动作信息可以用于表征用户的确认意图。
[0049]
根据本公开的实施例,相比于响应于确定已进入预定交互模式,未确定目标触发指令而直接执行确定眼部聚焦信息,利用头部动作信息和眼部动作信息双重信息来确定目标触发指令,相当于双重确认。可以保证后续的眼部聚焦信息为用户基于主动控制的目的而进行的操作。进而可以避免用户因未及时反应而导致的误操作的问题。
[0050]
图3示意性示出了根据本公开实施例的显示界面的示意图。
[0051]
如图3所示,用户可以通过头部控制信息控制目标元素例如列表页面310显示于显示界面上。可以将列表页面310显示于显示界面作为已经进入预定交互模式的确定条件。响应于确定已进入预定交互模式,采集眼部动作信息。眼部动作信息可以用于表征用户注视显示界面的位置信息,例如可以利用显示于显示界面上的眼控光标来表征用户在显示界面的注视位置,眼控光标e_m可以用如图3所示的实心圆外套圆环来表示。还可以采集头部动作信息。头部动作信息可以用于表征用户通过头部动作聚焦显示界面的位置信息,例如可以利用显示于显示界面上的眼控光标来表征用户在显示界面的聚焦位置,头控光标h_m可以用如图3所示的圆环来表示。
[0052]
可以基于表征眼部动作信息的眼控光标e_m与表征头部动作信息的头控光标h_m来确定目标触发指令。但是并不局限于此。还可以基于眼控光标e_m、头控光标h_m以及持续定位时长来确定目标触发指令。例如,在眼控光标e_m的位置和头控光标h_m的位置重叠,且
持续预定时长定位在目标位置例如向下滑动的控制按钮320处的情况下,确定目标触发指令。
[0053]
根据本公开的实施例,在眼部动作信息、以及头部动作信息指示了与其匹配的目标触发指令的情况下,确定目标触发指令。可以响应于确定接收到目标触发指令,采集眼部动作信息,并将眼部动作信息作为眼部聚焦信息。
[0054]
根据本公开的实施例,采集头部动作信息的操作以及采集眼部动作信息的操作可以同时进行,也可以先后进行,其先后顺序不做限定。
[0055]
根据本公开的实施例,与目标触发指令相匹配的眼部动作信息与头部动作信息并不做限定。例如,眼控光标以及头控光标定位在显示界面上的目标位置不做限定,在显示界面上的目标位置是否重叠也不做限定,只要是利用眼部动作信息与头部动作信息同时来确定目标触发指令即可。
[0056]
图4a示意性示出了根据本公开实施例的执行目标操作的示意图。
[0057]
如图4a所示,可以将显示界面上的横向中线位置作为第一预定位置,但是并不局限于此,还可以将显示界面上的竖向中线位置作为第一预定位置。根据眼部聚焦信息例如眼控光标e_m的位置信息与显示界面上的第一预定位置之间的间距d,确定针对目标操作的执行速度。
[0058]
根据本公开的实施例,针对列表页面为目标元素,目标操作的执行速度可以理解为列表页面的滑动速度、切换速度或者为翻页速度。但是并不局限于此。针对图片为目标元素,目标操作的执行速度可以理解为图片的旋转角度、或者放缩倍数等。
[0059]
根据本公开的实施例,可以设置间距越大,执行速度越快,例如,间距与执行速度成正比关系。但是并不局限于此。可以设置间距越大,执行速度越慢。只要是通过间距来确定的执行速度即可。相比于间距与执行速度无关的执行方式,设置为间距与执行速度成正比关系的执行方式,可以更方便用户针对目标元素的交互控制,提供丰富的交互功能。
[0060]
图4b示意性示出了根据本公开另一实施例的执行目标操作的示意图。
[0061]
如图4b所示,第一预定位置与第二预定位置可以为显示界面上的同一位置,但是并不局限于此,第一预定位置与第二预定位置还可以为显示界面上不同位置。根据眼部聚焦信息例如眼控光标e_m的位置信息与显示界面上的第二预定位置之间的相对位置关系,可以确定针对目标元素的操作模式。
[0062]
根据本公开的实施例,针对第二预定位置为显示界面上的横向中心的位置。相对位置关系可以为眼部聚焦信息位于显示界面上的第二预定位置上方或者下方。
[0063]
根据本公开的实施例,操作模式可以指与相对位置关系相匹配的操作方式。例如,针对列表页面的目标元素,眼部聚焦信息位于显示界面上的第二预定位置上方,操作模式可以为向上滑动列表页面或者向上翻列表页面。类似地,针对列表页面的目标元素,眼部聚焦信息位于显示界面上的第二预定位置下方,操作模式可以为向下滑动列表页面或者向下翻列表页面。
[0064]
如图4所示,眼控光标e_m位于第二预定位置的下方。列表页面的操作模式为向下滑动。滑动速度基于眼控光标e_m与第一位置之间的间距确定。
[0065]
根据本公开的实施例,针对操作s220,根据眼部聚焦信息,执行对显示界面上的目标元素的目标操作之后,可以利用眼部聚焦信息与目标元素之间的目标位置关系,来确定
是否与退出预定交互模式。在确定眼部聚焦信息与目标元素之间的目标位置关系与退出预定交互模式的触发指令相匹配的情况下,退出预定交互模式。
[0066]
图5示意性示出了根据本公开实施例的退出预定交互模式的示意图。
[0067]
如图5所示,表征眼部聚焦信息的眼控光标e_m的位置信息与目标元素510之间为分离的目标位置关系。即,眼控光标e_m定位在目标元素510之外。可以响应于确定目标位置关系与退出预定交互模式的触发指令相匹配,退出预定交互模式。
[0068]
根据本公开的实施例,眼部聚焦信息与目标元素之间的目标位置关系可以包括分离的目标位置关系,但是并不局限于此,还可以是眼部聚焦信息与目标元素的边界之间重合的目标位置关系。只要是预先设定的,基于眼部聚焦信息与目标元素之间的位置关系来确定是否与退出预定交互模式的触发指令相匹配即可。
[0069]
根据本公开的其他实施例,可以将用户视线离开目标元素确定为与退出预定交互模式的触发指令相匹配。
[0070]
根据本公开的实施例,相比于将用户视线离开目标元素确定为与退出预定交互模式的触发指令相匹配,将根据眼部聚焦信息与目标元素之间的目标位置信息确定为与退出预定交互模式的触发指令相匹配,可以避免因眨眼等暂时闭眼而导致的视线离开目标元素的情况,进而避免误操作的问题,以此能够提高利用眼部聚焦信息来进行交互操作的灵敏性以及准确性。
[0071]
根据本公开的实施例,可以在退出预定交互模式的情况下,不执行眼部跟踪功能,进而眼控光标将在显示界面消失。可以在确定显示界面上没有眼控光标的情况下,确定已经退出预定交互模式。
[0072]
根据本公开的实施例,在退出预定交互模式之后,可以基于头部控制信息来对目标元素进行进一步地交互操作。例如,从目标元素例如列表页面中的多个选项中确定目标选项,以进行确认、点播等操作。
[0073]
图6示意性示出了根据本公开另一实施例的交互方法的流程图。
[0074]
如图6所示,该方法包括操作s610至s660。
[0075]
在操作s610,基于在显示界面显示列表页面,确定已进入预定交互模式。
[0076]
根据本公开的实施例,预定交互模式可以是列表页面通过眼控光标控制滑动的模式。
[0077]
在操作s620,采集眼部动作信息以及头部动作信息。
[0078]
在操作s630,基于眼部动作信息以及头部动作信息,确定是否接收到目标触发指令。在确定接收到目标触发指令的情况下,执行操作s640。在确定未接收到目标触发指令的情况下,重复执行操作s620。
[0079]
根据本公开的实施例,可以在眼部动作信息表征用户视线注视滑动按钮,以及头部动作信息表征用户通过头部动作聚焦滑动按钮,且眼部动作信息与头部动作信息持续预定时长不变的情况下,确定接收到目标触发指令。
[0080]
在操作s640,根据眼部聚焦信息,执行对显示界面上的目标元素的目标操作。
[0081]
根据本公开的实施例,响应于确定目标触发指令,可以根据眼部聚焦信息来执行对目标元素的目标操作,例如显示界面仅显示眼控光标,头控光标消失于显示界面。可以在利用头部控制信息控制操作的方式向利用眼部聚焦信息来控制操作的方式进行切换,将用
户的多种动作信息结合来进行交互,提高交互的智能性与灵敏性,进而提高用户体验。
[0082]
在操作s650,基于眼部聚焦信息与目标元素之间的目标位置关系,确定是否接收到退出预定交互模式的触发指令。在确定接收到退出预定交互模式的触发指令的情况下,执行操作s660。在确定未接收到退出预定交互模式的触发指令的情况下,重复执行操作s640。
[0083]
在操作s660,退出预定交互模式。
[0084]
根据本公开的实施例,可以在眼部聚焦信息表征用户视线离开列表页面的情况下,退出预定交互模式。用于表征眼部聚焦信息的眼控光标消失于显示界面,头控光标显示于显示界面。后续可以利用用户的头部动作信息来控制执行对目标元素的操作。
[0085]
利用本公开实施例提供的交互方法,采用了眼动跟踪功能来采集眼部聚焦信息,利用眼部聚焦信息辅助头部控制信息实现与例如头戴显示设备的交互,无需用户说话或动手,只需利用眼部凝视与头部聚焦即可实现执行对目标元素的目标操作,支持用户通过头部运动和眼部运动来控制频繁被执行的列表页面的滑动操作。使得简化用户操作的行为方式的同时,提升用户使用体验和交互效率。
[0086]
图7示意性示出了根据本公开实施例的交互装置的框图。
[0087]
如图7所示,交互装置700可以包括聚焦确定模块710、以及执行模块720。
[0088]
聚焦确定模块710,用于响应于确定已进入预定交互模式,确定眼部聚焦信息,其中,预定交互模式是基于头部控制信息确定的,眼部聚焦信息用于表征用户视线在显示界面上的聚焦位置。
[0089]
执行模块720,用于根据眼部聚焦信息,执行对显示界面上的目标元素的目标操作。
[0090]
根据本公开的实施例,聚焦确定模块可以包括眼动采集单元、头动采集单元、指令确定单元、以及聚焦确定单元。
[0091]
眼动采集单元,用于响应于确定已进入预定交互模式,采集眼部动作信息。
[0092]
头动采集单元,用于采集头部动作信息。
[0093]
指令确定单元,用于确定与眼部动作信息、以及头部动作信息相匹配的目标触发指令。
[0094]
聚焦确定单元,用于基于目标触发指令,确定眼部聚焦信息。
[0095]
根据本公开的实施例,执行模块可以包括第一执行单元。
[0096]
第一执行单元,用于根据眼部聚焦信息与显示界面上的第一预定位置之间的间距,确定针对目标操作的执行速度。
[0097]
根据本公开的实施例,执行模块可以包括第二执行单元。
[0098]
第二执行单元,用于根据眼部聚焦信息与显示界面上的第二预定位置之间的相对位置关系,确定针对目标元素的操作模式。
[0099]
根据本公开的实施例,交互装置还可以包括,在聚焦确定模块之前:头控采集模块、以及模式进入模块。
[0100]
头控采集模块,用于采集头部控制信息。
[0101]
模式进入模块,用于响应于确定头部控制信息与进入预定交互模式的触发指令相匹配,执行进入预定交互模式的操作。
[0102]
根据本公开的实施例,交互装置还可以包括,在执行模块之后:位置确定模块、以及模式退出模块。
[0103]
位置确定模块,用于确定眼部聚焦信息与目标元素之间的目标位置关系。
[0104]
模式退出模块,用于响应于确定目标位置关系与退出预定交互模式的触发指令相匹配,退出预定交互模式。
[0105]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0106]
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例的方法。
[0107]
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例的方法。
[0108]
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开实施例的方法。
[0109]
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0110]
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(rom)802中的计算机程序或者从存储单元808加载到随机访问存储器(ram)803中的计算机程序,来执行各种适当的动作和处理。在ram 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、rom 802以及ram 803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。
[0111]
设备800中的多个部件连接至i/o接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0112]
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如交互方法。例如,在一些实施例中,交互方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由rom 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到ram 803并由计算单元801执行时,可以执行上文描述的交互方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行交互方法。
[0113]
基于前述的电子设备,本公开还提供了一种头戴显示设备,该头戴显示设备包括前述的电子设备。除包括上述的电子设备外,还可以包括信息采集装置、眼动跟踪装置以及头动跟踪装置。
[0114]
根据本公开的实施例,电子设备与信息采集装置、眼动跟踪装置以及头动跟踪装置一体集成,也可以与信息采集装置、眼动跟踪装置以及头动跟踪装置分体设置。
[0115]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、复杂可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0116]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0117]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0118]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0119]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0120]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
[0121]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
[0122]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1