穿戴式设备的控制方法、装置、存储介质及穿戴式设备与流程

文档序号:16692186发布日期:2019-01-22 18:59阅读:218来源:国知局
穿戴式设备的控制方法、装置、存储介质及穿戴式设备与流程

本申请实施例涉及智能设备技术领域,尤其涉及穿戴式设备的控制方法、装置、存储介质及穿戴式设备。



背景技术:

目前,智能穿戴式设备已进入广大用户的日常生活中,为用户的生活及工作等提供了诸多方面的便利。

随着智能穿戴技术的发展,如今的智能穿戴式设备可实现丰富多样的功能。然而,目前智能穿戴式设备的功能仍不够完善,需要改进。



技术实现要素:

本申请实施例提供一种穿戴式设备的控制方法、装置、存储介质及穿戴式设备,可以优化穿戴式设备的控制方案。

第一方面,本申请实施例提供了一种穿戴式设备的控制方法,包括:

确定用户注视的目标对象;

获取所述目标对象对应的目标关联信息;

控制所述穿戴式设备采用增强现实技术显示所述目标关联信息。

第二方面,本申请实施例提供了一种穿戴式设备的控制装置,包括:

对象确定模块,用于确定用户注视的目标对象;

关联信息获取模块,用于获取所述目标对象对应的目标关联信息;

关联信息显示模块,用于控制所述穿戴式设备采用增强现实技术显示所述目标关联信息。

第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的穿戴式设备的控制方法。

第四方面,本申请实施例提供了一种穿戴式设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的穿戴式设备的控制方法。

本申请实施例中提供的穿戴式设备的控制方案,确定用户注视的目标对象,获取目标对象对应的目标关联信息,再控制穿戴式设备采用增强现实技术显示目标关联信息。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,确定用户关注的对象,获取该对象的相关信息并采用增强现实的方式通过穿戴式设备显示出来,可以丰富穿戴式设备的功能,增强穿戴式设备的科技感。

附图说明

图1为本申请实施例提供的一种穿戴式设备的控制方法的流程示意图;

图2为本申请实施例提供的另一种穿戴式设备的控制方法的流程示意图;

图3为本申请实施例提供的一种目标关联信息的显示示意图;

图4为本申请实施例提供的一种穿戴式设备的控制装置的结构框图;

图5为本申请实施例提供的一种穿戴式设备的结构示意图;

图6为本申请实施例提供的又一种穿戴式设备的结构示意图;

图7为本申请实施例提供的一种穿戴式设备的示意实体图。

具体实施方式

下面结合附图并通过具体实施方式来进一步说明本申请的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。

在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。

图1为本申请实施例提供的一种穿戴式设备的控制方法的流程示意图,该方法可以应用于穿戴式设备,可由穿戴式设备的控制装置执行,其中该装置可由软件和/或硬件实现,一般可集成在穿戴式设备中。如图1所示,该方法包括:

步骤101、确定用户注视的目标对象。

本申请实施例中,对穿戴式设备的具体组成结构、形状及体积等属性不做限定。穿戴式设备可包括佩戴于用户头部的穿戴式设备,如智能眼镜、智能头盔等。示例性的,以智能眼镜为例,智能眼镜包括眼镜框体和镜片。该眼镜框体包括镜腿和镜框。可选的,在镜腿的内侧可以设有呼吸灯,呼吸灯可以是led灯,并可以根据智能眼镜佩戴者心跳的频率进行闪烁。在镜腿上还设有触控区(如触控面板)及骨传导区。其中,触控区设置于镜腿的外侧,在触控区内设置触摸检测模块,用于检测用户的触摸操作。例如,采用触摸传感器模块检测用户的触摸操作,该触摸传感器模块在初始态为低电平,在有触摸操作时为高电平。在用户佩戴智能眼镜的场景下将镜腿靠近脸部的一侧规定为内侧,与内侧相对的远离脸部的一侧规定为外侧。在镜腿上靠近耳朵的位置设置骨传导区。其中,在骨传导区设置骨传导耳机或骨传导传感器等骨传导部件。在镜腿靠近脸部太阳穴的位置设置心率检测模组(如心率传感器),用于获取佩戴智能眼镜用户的心率信息。在镜框上设置智能麦克风,可以智能识别当前所处环境噪音大小,可以基于环境噪音自动调节麦克风的性能。在镜框上还设有距离传感器及陀螺仪等。此外,在镜框及鼻托上还设置有眼电图(简称为eog)传感器,用于采集用户的眼睛状态。另外,在镜腿上还设置有微处理区,微处理器设置于微处理区,分别与上述触摸检测模块、骨传导耳机、心率传感器、智能麦克风、距离传感器、陀螺仪、眼电图传感器等器件电连接,用于接收待处理数据,进行数据运算、数据处理并输出控制指令至对应的器件。需要说明的是,该智能眼镜可以通过互联网由云端下载多媒体资源进行播放,还可以通过与终端设备建立通信连接,由终端设备上获取多媒体资源,本申请对此并不作限定。在镜框外侧还可设置第一摄像头,用于拍摄佩戴者前方的景象照片等。

用户在佩戴本申请实施例中的穿戴式设备时,眼睛可以透过穿戴式设备的镜片观看周围的事物。本申请实施例中,可以利用穿戴式设备来检测用户的眼睛所注视的对象,具体的检测方式可以有很多种,本申请实施例不做限定。示例性的,可以在穿戴式设备的镜框内侧设置第二摄像头,该第二摄像头可以对用户眼睛的运动进行追踪,获得用户眼睛的运动情况,再分析出用户眼睛注视的方向,进而确定用户注视的对象。第二摄像头可以是实时开启的,也可以在满足开启条件时开启,例如,可对应本申请实施例的方法增加穿戴式设备的关联信息显示功能,在关联信息显示功能开启后,开启第二摄像头。开启关联信息显示功能的方式也可以有很多,示例性的,接收针对穿戴式设备的第一操作,当所述第一操作满足预设条件时,确定开启关联信息显示功能。申请实施例中对穿戴式设备接收操作的具体方式不做限定,第一操作可以是任意形式的任意一个用于对穿戴式设备进行控制的操作。示例性的,穿戴式设备上可以设置实体按键或虚拟按键(如触摸式按键),用户可以通过指定触发方式(如点击、长按或连续多次点击等)按压或触摸穿戴式设备上的按键来表达自己的操作意愿,穿戴式设备在检测到某个按键被以某种方式触发时,可根据按键属性(如名称)及触发方式识别出用户的操作意愿,以控制穿戴式设备响应用户的操作。示例性的,穿戴式设备上还可以设置语音识别模块,通过麦克风采集用户说的话,并利用语音识别模块对用户说出的自然语言进行语义分析,得到相应的语音内容,并根据该语音内容控制穿戴式设备响应用户的语音命令。示例性的,穿戴式设备上还可以设置用于感测用户动作的传感器(如超声波传感器等),如可感测用户的手势动作等,利用该传感器识别出用户用于表达操作意愿的动作,并根据该动作的类型控制穿戴式设备进行相应的响应。可预先设置某个操作与开启关联信息显示功能的对应关系,当检测到当前接收到的第一操作与开启关联信息显示功能存在对应关系时,开启关联信息显示功能,进而开启第二摄像头。

本申请实施例中的目标对象可以包括人物、动物、建筑物、车辆以及其他物体等,具体种类不做限定。可选的,目标对象还可以包括指定场景下的物体,指定场景例如旅游景区、教学课堂、演播厅以及公共场所等等。可选的,可由系统自动或用户自行选定目标对象所包含的种类,避免获取用户不关心的物体的关联信息所造成的资源浪费。

步骤102、获取所述目标对象对应的目标关联信息。

示例性的,可从穿戴式设备内置存储器中获取目标对象对应的目标关联信息,也可从外部终端获取,外部终端可以是预先与穿戴式设备相关联的终端设备,如服务器或者移动终端等。可选的,可以在穿戴式设备内置存储器中预先存储常用对象对应的关联信息,穿戴式设备在确定目标对象后,先从内置存储器中查找是否存在目标对象对应的目标关联信息,若存在,则可直接读取,可有效提高获取目标关联信息的速度,若不存在,则可从预设终端设备中获取,在节省穿戴式设备内置存储空间的同时还能够更加全面的获取各种目标对象对应的目标关联信息。

示例性的,目标关联信息可包括与目标对象相关的信息,如目标对象的名称、用途、功效、价格、组成、重量、获取途径、制备方法以及相关典故等等,可根据目标对象的具体种类来确定,本申请实施例不做限定。例如,目标对象为一盘菜,其对应的目标关联信息可包括菜名、主料、配料、菜谱、热量、口味以及食用禁忌等等;又如,目标对象为一件玩具,其对应的目标关联信息可包括玩具名称、售价、材质、功能、适用对象以及购买途径等等。本申请实施例中对目标关联信息的表现形式不做限定,可以是文字形式,也可以是图像形式等。可选的,当目标关联信息的表现形式为文字形式时,可以是预设语种的文字,如用户可以预先设置预设语种为中文或英文等。

步骤103、控制所述穿戴式设备采用增强现实技术显示所述目标关联信息。

增强现实(augmentedreality,ar)技术是通过计算机系统提供的信息增加用户对现实世界感知的技术,将虚拟的信息应用到真实世界,并将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,从而实现对现实的增强。

本申请实施例中,可采用ar技术将目标关联信息叠加显示到用户所看到的真实景象中,使用户在关注目标对象的同时能够及时看到目标对象的关联信息。穿戴式设备具备影像显示功能,本申请实施例对穿戴式设备的成像原理不做限定。示例性的,可以通过微型投影仪进行成像,如利用光学反射投影原理,由微型投影仪将光投到一块反射屏上,而后通过一块凸透镜折射到人体眼球,实现“一级放大”,在人眼前形成一个足够大的虚拟屏幕,可以显示文本信息及图像等。示例性的,还可以利用低功率激光进行投影,由激光器在眼镜片上显示出一定像素的图像,该图像会被反射到用户的视网膜,从而实现影像显示。当然,还可以有其他的成像方式,本申请实施例不再一一介绍。

可选的,在对目标关联信息进行显示时,可以一次性进行全部显示,也可以分批次进行分批显示,以显示更多的内容,本申请实施例不做限定。

本申请实施例中提供的穿戴式设备的控制方法,确定用户注视的目标对象,获取目标对象对应的目标关联信息,再控制穿戴式设备采用增强现实技术显示目标关联信息。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,确定用户关注的对象,获取该对象的相关信息并采用增强现实的方式通过穿戴式设备显示出来,可以丰富穿戴式设备的功能,增强穿戴式设备的科技感。

在一些实施例中,所述获取所述目标对象对应的目标关联信息,包括:当所述目标对象被所述用户注视的时长达到预设时长阈值时或者当所述目标对象被所述用户注视的次数达到预设次数阈值时,获取所述目标对象对应的目标关联信息。这样设置的好处在于,更加准确地确定用户真正关注的对象,并获取其对应的目标关联信息,避免获取用户不关心的物体的关联信息所造成的资源浪费。可以理解的是,当用户长时间注视某一物体,或者多次注视某一物体时,可以说明用户对该物体比较关注,很有可能存在进一步了解该物体的需求,因此,当目标对象被用户注视的时长达到预设时长阈值时或者被注视的次数达到预设次数阈值时,认为用户真正关注目标对象,获取目标对象对应的目标关联信息。其中,预设时长阈值的具体数值不做限定,例如可以是5秒;预设次数阈值的具体数值也不做限定,例如可以是3次。

在一些实施例中,所述确定用户注视的目标对象,包括:通过所述穿戴式设备获取用户前方的目标图像;获取所述用户的眼部状态;根据所述眼部状态和所述目标图像确定用户注视的目标对象。这样设置的好处在于,能够准确地识别出用户注视的目标对象,且当用户眼部发生较小移动时,无需重新获取目标图像,在原有的目标图像基础上即可实现目标对象的快速切换,提高目标对象的识别速度。其中,可以利用上文所述的第一摄像头获取用户前方的目标图像。人的眼睛近似球形,位于眼眶内。眼球包括眼球壁、眼内腔和内容物、神经、血管等组织。眼球壁主要分为外层、中层及内层。眼球壁外层由角膜、巩膜组成。眼球壁外层的前1/6为透明的角膜,俗称“眼珠”,其余5/6为白色的巩膜,俗称“眼白”。本申请实施例中,可利用上文所述的第二摄像头获取用户的眼部图像,根据眼部图像计算眼珠在眼眶中的相对位置,进而计算出用户眼睛的注视方向,将该注视方向映射到目标图像中,从而确定目标图像中包含的目标对象。

在一些实施例中,所述获取所述目标对象对应的目标关联信息,包括:从所述目标图像中提取所述目标对象对应的子图像;将所述子图像发送至预设服务器;从所述预设服务器获取所述目标对象对应的目标关联信息。这样设置的好处在于,无需在穿戴式设备中分析目标对象的具体身份,节省穿戴式设备的功耗,同时将目标对象的分析过程交由预设服务器来处理后,由于服务器的运算能力较强,能够快速准确地分析出目标对象的身份,进而在数据库中查询目标对象对应的目标关联信息,反馈给穿戴式设备,从整体上提高穿戴式设备获取目标关联信息的效率和准确度。

在一些实施例中,所述采用增强现实技术控制所述穿戴式设备显示所述目标关联信息,包括:控制所述穿戴式设备采用增强现实技术将所述目标关联信息显示于所述用户的视角下的所述目标对象的预设范围内。预设范围可以根据实际情况进行设置,如根据目标对象的体积大小,与用户之间的距离等等。这样设置的好处在于,将目标关联信息显示在用户视角下的目标对象的周围,方便用户查看。

在一些实施例中,所述目标对象包括景区内的建筑物和/或物品。当所述目标对象包括建筑物时,所述目标关联信息包括目标建筑物的名称、建筑风格、用途、典故、建筑材料、建筑结构和居住人物介绍中的至少一项。当所述目标对象包括物品时,所述目标关联信息包括目标物品的名称、材质、用途、典故和使用人物介绍中的至少一项。这样设置的好处在于,能够充分适应景区游览的场景,用户在游览景区时,佩戴本申请实施例的穿戴式设备,在看到自己感兴趣的建筑物或物品时,仅需注视该建筑物或物品,穿戴式设备就能够采用增强现实技术对用户关注的对象进行相关内容的显示,从而利用穿戴式设备为用户提供便捷、生动的导览服务,丰富穿戴式设备的功能。

在一些实施例中,在采用增强现实技术控制所述穿戴式设备显示所述目标关联信息的同时,还包括:控制所述穿戴式设备播放所述目标对象对应的预设语种的解说语音。这样设置的好处在于,在用户查看目标关联信息的同时,还能够收听目标对象对应的相关解说,且该解说能够以预设语种进行播放,可适用于出国旅游的场景,让用户更加全面的获取目标对象的相关信息,无需花费额外的费用雇佣专业导游。可选的,可控制穿戴式设备通过骨传导部件播放目标对象对应的预设语种的解说语音。骨传导是一种声音传导方式,即将声音转化为不同频率的机械振动,通过人的颅骨、骨迷路、内耳淋巴液传递、螺旋器、听神经及听觉中枢等来传递声波。相对于通过振膜产生声波的经典声音传导方式,骨传导省去了许多声波传递的步骤,能在嘈杂的环境中实现清晰的声音还原,而且声波也不会因为在空气中扩散而影响到他人。在穿戴式设备中集成骨传导部件,无需设置入耳式耳机部件,解放用户的双耳,避免长期佩戴所带来的不适。

图2为本申请实施例提供的另一种穿戴式设备的控制方法的流程示意图,以在景区内使用穿戴式设备的场景为例进行说明,该方法包括如下步骤:

步骤201、检测到穿戴式设备的关联信息显示功能处于开启状态。

步骤202、通过穿戴式设备外侧的第一摄像头获取用户前方的目标图像。

步骤203、通过穿戴式设备内侧的第二摄像头获取用户的眼部状态。

步骤204、根据眼部状态和目标图像实时确定用户注视的目标对象。

其中,目标对象包括景区内的建筑物和物品。

步骤205、判断目标对象被用户注视的时长达是否到预设时长阈值,若是,则执行步骤207;否则,执行步骤206。

步骤206、判断目标对象在预设时段内被用户注视的次数是否达到预设次数阈值,若是,则执行步骤207;否则,返回执行步骤204。

步骤207、从目标图像中提取目标对象对应的子图像,将子图像发送至预设服务器,并从预设服务器获取目标对象对应的目标关联信息。

示例性的,当所述目标对象包括建筑物时,所述目标关联信息包括目标建筑物的名称、建筑风格、用途、典故、建筑材料、建筑结构和居住人物介绍中的至少一项。当所述目标对象包括物品时,所述目标关联信息包括目标物品的名称、材质、用途、典故和使用人物介绍中的至少一项。

可选的,可在穿戴式设备中内置定位模块,如全球定位系统(globalpositioningsystem,gps)模块,利用定位模块定位出用户当前所在景区或位置,并将景区名称或其他类型的定位信息(如经纬度数据等)发送至该预设服务器,方便预设服务器缩小目标对象的筛选范围,提高预设服务器确定目标对象的效率和准确度。可选的,定位信息的发送次数可以设置的少一些,因为用户一般在游览景区时,短时间内不会离开该景区,可以在穿戴式设备检测到用户位置发生较大变化(如超出预设变化范围时)再向预设服务器发送新的定位信息,减少数据交互。

例如,用户在西湖景区进行游览,穿戴式设备中的定位模块可将西湖景区的定位信息发送至预设服务器。当用户来到三潭印月游览区域时,用户透过穿戴式设备注视湖中的三座石塔的时长达到预设时长阈值时,穿戴式设备将三座石塔的子图像发送至预设服务器,预设服务器对该子图像进行识别,分析出其为西湖景区三潭印月中的三座石塔,获取三座石塔相关的目标关联信息,返回给穿戴式设备。目标关联信息例如可包括建筑物名称“三潭印月——三座石塔”,典故“苏东坡在杭疏浚西湖时所创建,明代重建”,名称来历“《西湖志》所说:‘月光映潭,分塔为三,故有三潭印月之目。’”建筑结构信息“塔高2.5米,露出水面2米,由基座、圆形塔身、宝盖、六边小亭、葫芦顶组成”等等。

步骤208、控制穿戴式设备采用增强现实技术将目标关联信息显示于用户的视角下的目标对象的预设范围内,控制穿戴式设备的骨传导部件播放目标对象对应的预设语种的解说语音。

示例性的,图3为本申请实施例提供的一种目标关联信息的显示示意图,如图所示,在用户视角下,三座石塔的图像是用户真实看到的景象(其他景象,如岛屿、树木及其他游客等未示出),穿戴式设备利用ar技术将从预设服务器获取到目标关联信息显示在用户视角下的三座石塔周边,如图3中所示的“三潭印月——三座石塔”、“苏东坡在杭疏浚西湖时所创建,明代重建”及“塔高2.5米,露出水面2米,由基座、圆形塔身、宝盖、六边小亭、葫芦顶组成”,这样,用户无需另外查找景区资料介绍,也无需费力跟随导游听导游的讲解,即可通过可视的方式快速了解三座石塔的相关信息。此外,为了便于用户了解更多的信息,穿戴式设备还可以利用骨传导部件播放三座石塔的其他相关介绍,可以预先设置解说语音的语种,例如美国人来游览西湖时,可将预设语种设置为英文,方便用户收听。当然,在进行目标关联信息显示时,也可以预设语种进行显示,方便用户查看。

本申请实施例提供的穿戴式设备的控制方法,可适用于景区游览场景,当用户佩戴穿戴式设备在景区游览时,若看到自己感兴趣的建筑物或物品等,会驻足观看,当注视时长或注视次数满足要求时,穿戴式设备会自动从预设服务器获取注视对象对应的目标关联信息,并通过ar技术进行显示,同时播放相关的解说语音,让用户可以摆脱导游的束缚,自由游览,由穿戴式设备为用户提供全面的导览服务。

图4为本申请实施例提供的一种穿戴式设备的控制装置的结构框图,该装置可由软件和/或硬件实现,一般集成在穿戴式设备中,可通过执行穿戴式设备的控制方法来控制穿戴式设备进行信息显示。如图4所示,该装置包括:

对象确定模块401,用于确定用户注视的目标对象;

关联信息获取模块402,用于获取所述目标对象对应的目标关联信息;

关联信息显示模块403,用于控制所述穿戴式设备采用增强现实技术显示所述目标关联信息。

本申请实施例提供的穿戴式设备的控制装置,确定用户注视的目标对象,获取目标对象对应的目标关联信息,再控制穿戴式设备采用增强现实技术显示目标关联信息。通过采用上述技术方案,可以在用户佩戴穿戴式设备的过程中,确定用户关注的对象,获取该对象的相关信息并采用增强现实的方式通过穿戴式设备显示出来,可以丰富穿戴式设备的功能,增强穿戴式设备的科技感。

可选的,所述获取所述目标对象对应的目标关联信息,包括:

当所述目标对象被所述用户注视的时长达到预设时长阈值时或者当所述目标对象被所述用户注视的次数达到预设次数阈值时,获取所述目标对象对应的目标关联信息。

可选的,所述确定用户注视的目标对象,包括:

通过所述穿戴式设备获取用户前方的目标图像;

获取所述用户的眼部状态;

根据所述眼部状态和所述目标图像确定用户注视的目标对象。

可选的,所述获取所述目标对象对应的目标关联信息,包括:

从所述目标图像中提取所述目标对象对应的子图像;

将所述子图像发送至预设服务器;

从所述预设服务器获取所述目标对象对应的目标关联信息。

可选的,所述采用增强现实技术控制所述穿戴式设备显示所述目标关联信息,包括:

控制所述穿戴式设备采用增强现实技术将所述目标关联信息显示于所述用户的视角下的所述目标对象的预设范围内。

可选的,所述目标对象包括景区内的建筑物和/或物品;

当所述目标对象包括建筑物时,所述目标关联信息包括目标建筑物的名称、建筑风格、用途、典故、建筑材料、建筑结构和居住人物介绍中的至少一项;

当所述目标对象包括物品时,所述目标关联信息包括目标物品的名称、材质、用途、典故和使用人物介绍中的至少一项。

可选的,该装置还包括语音播放模块,用于在采用增强现实技术控制所述穿戴式设备显示所述目标关联信息的同时,控制所述穿戴式设备播放所述目标对象对应的预设语种的解说语音。

本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行穿戴式设备的控制方法,该方法包括:

确定用户注视的目标对象;

获取所述目标对象对应的目标关联信息;

控制所述穿戴式设备采用增强现实技术显示所述目标关联信息。

存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如cd-rom、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如dram、ddrram、sram、edoram,兰巴斯(rambus)ram等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。

当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的穿戴式设备的控制操作,还可以执行本申请任意实施例所提供的穿戴式设备的控制方法中的相关操作。

本申请实施例提供了一种穿戴式设备,该穿戴式设备中可集成本申请实施例提供的穿戴式设备的控制装置。图5为本申请实施例提供的一种穿戴式设备的结构示意图。穿戴式设备500可以包括:存储器501,处理器502及存储在存储器501上并可在处理器502运行的计算机程序,所述处理器502执行所述计算机程序时实现如本申请实施例所述的穿戴式设备的控制方法。

本申请实施例提供的穿戴式设备,可以在用户佩戴穿戴式设备的过程中,确定用户关注的对象,获取该对象的相关信息并采用增强现实的方式通过穿戴式设备显示出来,可以丰富穿戴式设备的功能,增强穿戴式设备的科技感。

上述示例中列举的存储器及微处理器均为穿戴式设备的部分元器件,所述穿戴式设备还可以包括其它元器件。图6为本申请实施例提供的又一种穿戴式设备的结构框图,图7为本申请实施例提供的一种穿戴式设备的示意实体图。如图6和图7所示,该穿戴式设备可以包括:存储器601、处理器(centralprocessingunit,cpu)602(以下简称cpu)、显示部件603、触控面板604、心率检测模组605、距离传感器606、摄像头607、骨传导扬声器608、麦克风609、呼吸灯610。这些部件通过一个或多个通信总线或信号线611(以下又称内部传输线路)来通信。

应该理解的是,图示穿戴式设备仅仅是一个范例,并且穿戴式设备可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。

下面就本实施例提供的穿戴式设备进行详细的描述,该穿戴式设备以智能眼镜为例。

存储器601,所述存储器601可以被cpu602访问,所述存储器601可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

显示部件603,可用于显示图像数据以及操作系统的操控界面,显示部件603嵌入在智能眼镜的镜框中,镜框内部设置有内部传输线路611,该内部传输线路611和显示部件603连接。

触摸面板604,该触摸面板604设置在至少一个智能眼镜镜腿的外侧,用于获取触摸数据,触摸面板604通过内部传输线路611和cpu602连接。其中,触摸面板604可检测用户的手指滑动、点击操作,并相应的把检测到的数据传输至处理器602进行处理以生成对应的控制指令,示例性的,可以是左移指令、右移指令、上移指令、下移指令等。示例性的,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据触摸面板604检测到的用户操作进行相应变化,具体的,可以是进行画面切换,当检测到左移指令或右移指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移指令可以是进行播放内容的回播,右移指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移指令、右移指令、上移指令、下移指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移指令、右移指令、上移指令、下移指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移指令、右移指令、上移指令、下移指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移指令、右移指令、上移指令、下移指令可进行不同频道的切换,其中,上移指令和下移指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移指令、右移指令、上移指令、下移指令可进行不同图片之间的切换,其中,左移指令可以是切换到上一幅图片,右移指令可以是切换至下一幅图,上移指令可以是切换到上一图集,下移指令可以是切换至下一图集。该触摸面板604还可用于对显示部件603的显示开关进行控制,示例性的,当长按压触摸面板604触摸区域时,显示部件603通电显示图像界面,当再次长按压触摸面板604触摸区域时,显示部件603断电,当显示部件603通电后,可通过在触摸面板604进行上滑和下滑操作以调节显示部件603中显示图像的亮度或分辨率。

心率检测模组605,用于测得用户的心率数据,心率指每分钟的心跳次数,该心率检测模组605设置在镜腿内侧。具体的,该心率检测模组605可以是通过电脉冲测量的方式使用干性电极获取人体心电数据,根据心电数据中的振幅峰值确定心率大小;该心率检测模组605还可以是由采用光电法测量心率的光线发射和光线接收器组成,相应的,该心率检测模组605设置在镜腿底部,人体耳廓的耳垂处。心率检测模组605采集到心率数据后可相应的发送至处理器602中进行数据处理已得到佩戴者当前的心率值,在一个实施例中,处理器602在确定出用户的心率值后,可将该心率值实时显示在显示部件603中,可选的处理器602在确定出心率值较低(如小于50)或较高(如大于100)可相应的触发报警器,同时将该心率值和/或生成的报警信息通过通信模块发送至服务器。

距离传感器606,可设置在镜框上,该距离传感器606用于感应人脸到镜框的距离,该距离传感器606可采用红外感应原理实现。具体的,该距离传感器606将采集的距离数据发送至处理器602,处理器602根据该距离数据控制显示部件603的亮暗。示例性的,当确定出距离传感器606采集到的距离小于5厘米时,处理器602相应的控制显示部件603处于点亮状态,当确定出距离传感器为探测到有物体靠近时,相应的控制显示部件604处于关闭状态。

呼吸灯610,可设置在镜框的边缘,当显示部件603关闭显示画面时,该呼吸灯610可根据处理器602的控制而点亮呈渐变亮暗效果。

摄像头607,可以是设置在镜框的上边框的位置,采集用户前方的图像数据的前摄像模块,还可以采集用户眼球信息的后摄像模块,也可以是二者的结合。具体的,摄像头607采集前方图像时,将采集的图像发送至处理器602识别、处理,并根据识别结果触发相应的触发事件。示例性的,当用户在家中佩戴该穿戴设备时,通过对采集的前方图像进行识别,如果识别到家具物品,则相应的查询是否存在对应的控制事件,如果存在,则相应的将该控制事件对应的控制界面显示在显示部件603中,用户可通过触摸面板604进行对应的家具物品的控制,其中该家具物品和智能眼镜通过蓝牙或无线自组网进行网络连接;当用户在户外佩戴该穿戴设备时,可相应的开启目标识别模式,该目标识别模式可用于识别特定的人,摄像头607将采集的图像发送至处理器602进行人脸识别处理,如果识别到设定的预设人脸,则相应的可通过智能眼镜集成的扬声器进行声音播报,该目标识别模式还可以用于识别不同的植物,例如,处理器602根据触摸面板604的触摸操作以记录摄像头607采集的当前图像并通过通信模块发送至服务器以进行识别,服务器对采集图像中的植物进行识别并反馈相关的植物名称、介绍至智能眼镜,并将反馈数据显示在显示部件603中。摄像头607还可以是用于采集用户眼部如眼球的图像,通过对眼球的转动的识别生成不同的控制指令,示例性的,如眼球向上转动生成上移控制指令,眼球向下转动生成下移控制指令,眼球向左转动生成左移控制指令,眼球向右转动生成右移控制指令,其中合格,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据摄像头607检测到的用户眼球的移动变化生成的控制指令而改变,具体的,可以是进行画面切换,当检测到左移控制指令或右移控制指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移控制指令可以是进行播放内容的回播,右移控制指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移控制指令、右移控制指令、上移控制指令、下移控制指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同频道的切换,其中,上移控制指令和下移控制指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同图片之间的切换,其中,左移控制指令可以是切换到上一幅图片,右移控制指令可以是切换至下一幅图,上移控制指令可以是切换到上一图集,下移控制指令可以是切换至下一图集。

骨传导扬声器608,骨传导扬声器608设置在至少一个镜腿的内壁侧,用于将接收到的处理器602发送的音频信号转换为振动信号。其中,骨传导扬声器608将声音通过颅骨传递至人体内耳,通过将音频的电信号转变为振动信号传递到颅骨耳蜗内,再被听觉神经所感知。通过骨传导扬声器608作为发声装置减少了硬件结构厚度,重量更轻,同时无电磁辐射也不会受到电磁辐射的影响,并且具备抗噪声、防水以及解放双耳的有点。

麦克风609,可设置在镜框的下边框上,用于采集外部(用户、环境)声音并传输至处理器602进行处理。示例性的,麦克风609对用户发出的声音进行采集并通过处理器602进行声纹识别,如果识别为认证用户的声纹,则相应的可接收后续的语音控制,具体的,用户可发出语音,麦克风609将采集到的语音发送至处理器602进行识别以根据识别结果生成对应的控制指令,如“开机”、“关机”、“提升显示亮度”、“降低显示亮度”,处理器602后续根据该生成的控制指令执行对应的控制处理。

上述实施例中提供的穿戴式设备的控制装置、存储介质及穿戴式设备可执行本申请任意实施例所提供的穿戴式设备的控制方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的穿戴式设备的控制方法。

注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1