增强现实的实现方法、客户端装置和服务器的制造方法
【专利摘要】本发明提出一种增强现实的实现方法、客户端装置和服务器。其中,该方法包括:获得待识别对象的相关信息,其中,待识别对象的相关信息包括待识别对象的图像信息;向服务器发送相关信息,并接收服务器根据相关信息返回的待识别对象的增强信息及增强信息的显示位置信息;以及根据显示位置信息,同时显示待识别对象的增强信息和图像信息以实现增强现实。本发明实施例的增强现实的实现方法、客户端装置和服务器,提供了一种实现增强现实的新的交互方式,通过待识别对象的图像信息用户可以获得该对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加对待识别对象的了解。
【专利说明】增强现实的实现方法、客户端装置和服务器
【技术领域】
[0001]本发明涉及计算机【技术领域】,尤其涉及一种增强现实的实现方法、客户端装置和服务器。
【背景技术】
[0002]增强现实技术(Augmented Reality Technique,简称AR),是在虚拟现实基础上发展起来的新技术,是通过计算机系统提供的信息增加用户对现实世界感知的技术,并将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,从而实现对现实的“增强”。
[0003]目前,具有增强现实技术的应用程序例如社交类和地图类应用程序中的增强现实内容是由开发者制作完成的,具体而言,开发者基于地理定位和图像标记匹配原则制作增强现实内容,并将增强现实内容封装在该应用程序的开发工具包(SDK,SoftwareDevelopment Kit))中,以使用户可根据增加现实内容获得用户所需对象的有用信息。
[0004]然而,目前具有增强现实技术的应用程序并不支持基于图像识别信息做增强现实内容的方式,其主要原因是基于图像识别的效果不理想。具体而言,如果用户基于图像向现有的具有增强现实技术的应用程序发送请求之后,该应用程序识别该图像,也无法显示该图像的有用信息,用户无法获得该图像的有用信息。因此,具有增强现实技术的应用程序的用户体验并不理想。
【发明内容】
[0005]本发明旨在至少解决上述技术问题之一。
[0006]为此,本发明的第一个目的在于提出一种增强现实的实现方法。该方法提供了一种实现增强现实的新的交互方式,通过待识别对象的图像信息用户可以获得该对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加了用户对待识别对象的了解,提闻了用户的体验度。
[0007]本发明的第二个目的在于提出一种增强现实的实现方法。
[0008]本发明的第三个目的在于提出一种客户端装置。
[0009]本发明的第四个目的在于提出一种服务器。
[0010]为了实现上述目的,本发明第一方面实施例的增强现实的实现方法,包括以下步骤:获得待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息;向服务器发送所述相关信息,并接收所述服务器根据所述相关信息返回的所述待识别对象的增强信息及所述增强信息的显示位置信息;以及根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
[0011]本发明实施例的增强现实的实现方法,向服务器发送待识别对象的相关信息,并接收服务器返回待识别对象的增强信息及增强信息的显示位置信息,以及同时显示待识别对象的图像信息和增强信息,通过增强信息用户可以获得待识别对象中的有用信息,方便了用户对待识别对象的了解。[0012]为了实现上述目的,本发明第二方面实施例的增强现实的实现方法,包括以下步骤:接收客户端发送的待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息;对所述相关信息进行识别,获得对应的识别结果,根据所述识别结果生成所述待识别对象的增强信息及所述增强信息的显示位置信息;以及向所述客户端返回所述增强信息及所述增强信息的显示位置信息,以使所述客户端根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
[0013]本发明实施例的增强现实的实现方法,接收客户端发送的待识别对象的相关信息,对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息,以及将增强信息和显示位置信息发送至客户端,由此,提供了一种实现增强现实的新的交互方式,使得客户端可以获得待识别对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加对待识别对象的了解。
[0014]为了实现上述目的,本发明第三方面实施例的客户端装置,包括:获得模块,用于获得待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息;通信模块,用于向服务器发送所述相关信息,并接收所述服务器根据所述相关信息返回的所述待识别对象的增强信息及所述增强信息的显示位置信息;以及显示模块,用于根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
[0015]本发明实施例的客户端装置,通过获得模块获得待识别对象的相关信息,通过通信模块向服务器发送待识别对象的相关信息,并接收服务器返回待识别对象的增强信息及增强信息的显示位置信息,以及通过显示模块同时显示待识别对象的图像信息和增强信息,通过增强信息用户可以获得待识别对象中的有用信息,方便了用户对待识别对象的了解。
[0016]为了实现上述目的,本发明第四方面实施例的服务器,包括:接收模块,用于接收客户端发送的待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息;融合处理模块,用于对所述接收模块接收的所述相关信息进行识别,获得对应的识别结果,根据所述识别结果生成所述待识别对象的增强信息及所述增强信息的显示位置信息;以及返回模块,用于向所述客户端返回所述融合处理模块生成的所述增强信息及所述增强信息的显示位置信息,以使所述客户端根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
[0017]本发明实施例的服务器,通过接收模块接收客户端发送的待识别对象的相关信息,通过融合处理模块对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息,以及通过返回模块将增强信息及增强信息的显示位置信息发送至客户端,由此,提供了一种实现增强现实的新的交互方式,使得客户端可以获得待识别对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加对待识别对象的了解。
[0018]本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
【专利附图】
【附图说明】[0019]本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
[0020]图1是根据本发明一个实施例的增强现实的实现方法的流程图。
[0021]图2是根据本发明一个实施例的增强现实的实现方法的流程图。
[0022]图3是根据本发明一个实施例的客户端装置的结构示意图。
[0023]图4是根据本发明一个实施例的服务器的结构示意图。
[0024]图5是根据本发明一个具体实施例的服务器的结构示意图。
【具体实施方式】
[0025]下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
[0026]下面参考附图描述本发明实施例的增强现实的实现方法、客户端装置和服务器。
[0027]图1是根据本发明一个实施例的增强现实的实现方法的流程图。该实施例从客户端侧进行描述,如图1所示,该增强现实的实现方法包括:
[0028]S101,获得待识别对象的相关信息,其中,待识别对象的相关信息包括待识别对象的图像信息。
[0029]在该实施例中,上述客户端可以是移动终端,也可以是穿戴式设备例如增强现实眼镜。其中,移动终端是手机、平板电脑等具有各种操作系统的硬件设备。
[0030]在该实施例中,待识别对象的相关信息还可以包括待识别对象的声音信息、位置信息以及通过传感器获得的各种数据等。
[0031]具体而言,在开启客户端后,客户端可通过摄像头获得待识别对象的图像信息,还可通过声音采集设备获得待识别对象的声音信息,以及还可通过位置采集模块获得待识别对象的位置信息等。
[0032]S102,向服务器发送相关信息,并接收服务器根据相关信息返回的待识别对象的增强信息及增强信息的显示位置信息。
[0033]其中,待识别对象的增强信息可以包括但不限于推荐信息、声音信息、地理服务信息等信息。
[0034]具体而言,在客户端获得待识别对象的图像信息、声音信息、位置信息之后,还可以分别对上述信息进行预处理,例如,对待识别对象的图像信息可进行切割、压缩等处理,以及对待识别对象的声音信息可进行去噪、滤波处理等处理,以提高服务器根据接收的预处理后的信息返回增强信息的效率。在对上述信息进行预处理之后,客户端将处理后的相关信息发送至服务器。服务器在接收到待识别对象的相关信息后,将对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息,以及将生成的待识别对象的增强信息及增强信息的显示位置信息返回至客户端。
[0035]其中,增强信息的显示位置信息为服务器在待识别对象的图像信息中预设地可以显示增强信息的位置。[0036]S103,根据显示位置信息,同时显示待识别对象的增强信息和图像信息以实现增强现实。
[0037]具体地,客户端接收服务器返回的待识别对象的增强信息及增强信息的显示位置信息,并按照预定的方式将增强信息渲染叠加到客户端所获得的图像信息中,例如可利用全息投影的方式展示增强信息和图像信息,全息投影的方式可使图像信息中显示的增强信息具有三维空间感,由此,使得客户端可同时显示待识别对象的增强信息和图像信息,增强了图像信息的现实性,方便了用户对待识别对象的了解。
[0038]以客户端获得北京故宫博物馆的图像信息和地理信息为例,在客户端获得上述图像信息后,可对上述图像信息进行切割、压缩等处理,并在预处理之后,客户端可将处理后的图像信息和地理信息发送至服务器,服务器接收客户端发送的待识别对象及北京故宫博物馆的图像信息和地理信息,首先判断待识别对象的类型,确定待识别对象为景物,则先对地理信息进行识别,后对图像信息进行识别,具体地,首先对接收待识别对象的地理信息以获得待识别对象的位置信息,然后通过服务器中的图像识别模型对所接收到的图像信息进行识别,获得该图像信息对应的简明信息,然后根据简明信息到信息源体系中获得该图像信息的详细信息和推荐数据,上述图像信息的位置信息、详细信息和推荐数据即为北京故宫博物馆的图像信息的增强信息,服务器在获得北京故宫博物馆的图像信息的增强信息之后,为增强信息设置一个显示位置信息,并将获得的增强信息及增强信息的显示位置信息返回至客户端,客户端上将同时显示北京故宫博物馆的图像信息和增强信息。此外,服务器还可以从本地的信息源中获得北京故宫博物馆的图像信息对应的音频文件,其中,该音频文件可对北京故宫博物馆的图像信息中的景色或者物品进行语音介绍,通过上述语音介绍用户可以更多的了解北京博物馆的景色或者物品的相关信息。
[0039]再以客户端获得狗的图像信息和声音信息为例,在客户端将狗的图像信息和声音信息上传至服务器后,服务器接收客户端发送的待识别对象即狗的图像信息和声音信息,首先判断待识别对象的类型,确定待识别对象为动物,则先对声音信息进行识别,后对图像信息进行识别,具体地,从本地保存的声音识别模型中对接收的声音信息进行识别,以获得该声音信息对应的狗的种类,然后通过本地保存的图像识别模型对所接收到的图像信息进行识别,获得该图像信息对应的简明信息例如狗的名称,然后根据简明信息到信息源体系中获得该图像信息的详细信息和推荐数据例如获得狗的性格特点、饲养注意事项以及周围的对应的宠物医院等增强信息,并结合图像信息为该增强信息设置一个显示位置信息,最后将获得的增强信息及增强信息的显示位置信息发送至客户端,客户端中将同时显示狗的图像信息和增强信息,通过增强信息用户可以了解对狗进行更全面的了解,方便了用户对狗的饲养。
[0040]此外,在客户端获得例如某辆汽车的图像信息后,服务器将为用户返回该辆汽车对应的名城、价格、性能以及相关购买推荐信息等增强信息及增强信息的显示位置信息,用户通过客户端上显示的上述增强信息可以对该辆汽车进行全面了解,提高了用户的体验。
[0041]本发明实施例的增强现实的实现方法,向服务器发送待识别对象的相关信息,并接收服务器返回待识别对象的增强信息及增强信息的显示位置信息,以及同时显示待识别对象的图像信息和增强信息,通过增强信息用户可以获得待识别对象中的有用信息,方便了用户对待识别对象的了解。[0042]图2是根据本发明一个实施例的增强现实的实现方法的流程图。该实施例从服务器侧进行描述,如图2所示,该增强现实的实现方法包括:
[0043]S201,接收客户端发送的待识别对象的相关信息。
[0044]具体而言,服务器不仅可以接收客户端发送的待识别对象的图像信息,还可以接收待识别对象的声音信息、位置信息和各种传感器获得的数据。
[0045]S202,对相关信息进行识别,获得对应的识别结果,根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息。[0046]在该实施例中,可以采用串行/或并行的方式采用对应的识别模型对相关信息进行识别,获得对应的识别结果。其中,串行的方式为:获得所述待识别对象对应的类型信息,根据所述类型信息确定采用的识别模型的顺序,并按照所述顺序采用对应的识别模型对所述相关信息进行识别,获得识别结果;例如,对于某种待识别对象可以先进行声音识别,等识别出一定种类(达到一定概率时),再对图像信息进行识别,使图像信息在上一步识别出的种类中进一步识别,提高识别概率;如果还没有识别出具体对象名(标识)而进一步确定了分类,则继续在细分的分类下进行声音识别或者其它信息识别,获得识别结果。其中,并行的方式为:并行采用对应的识别模型对所述相关信息进行识别,获得识别结果。例如,并行对待识别对象的相关信息进行识别,例如可以按照Y=axl+bx2+cx3……(这个线性公式是个举例,也可以是二次或者其它更复杂的计算方式)的方式进行模型训练,Y表示待识别对象的最终识别概率,Xl表示采用声音识别模型的识别概率,x2表示采用图像识别模型的概率,x3表示位置识别模块的概率,a、b、c为根据历史数据获得的各模型对应的系数。需要说明的是,在实际应用中,串行或者并行可以混合使用,以提高识别的概率和准确率。
[0047]需要说明的是,上述串行或并行的识别方式仅为服务器在进行融合处理的过程中采用的调用算法,本领域的技术人员根据上述描述可以获知服务器需要具有通信功能,且在具有通信功能的基础上采用上述示例性调度算法进行识别。
[0048]具体地,服务器在接收到客户端发送的待识别对象的相关信息后,可根据待识别对象的相关信息获得待识别对象对应的类型信息,其中,类型信息可以包括但不限于动物、景点等类型。在获得待识别对象对应的类型信息后,可根据类型信息确定对应的识别方式对相关信息进行识别,获得识别结果。也就是说,可根据待识别对象对应的类型信息确定识别待识别对象相关信息的顺序,然后根据顺序对待识别对象进行识别,以获得识别结果。
[0049]具体而言,可根据确定的识别方式和从本地的信息源中获得的信息,对相关信息进行识别,获得识别结果。其中,可通过例如百度百科、搜索推荐数据等搭建本地的信息源。
[0050]在该实施例中,在对待识别对象的图像信息进行识别时,如果识别到图像信息中包含多个待识别对象,则对图像信息进行分割,以获得每个待识别对象和每个待识别对象在图像信息中对应的位置,然后分别对每个待识别对象和对应的位置进行识别,获得图像信息中每个待识别对象的名称、识别概率和位置信息。
[0051]具体地,对于每个待识别对象,当确定当前待识别对象的识别概率大于预定阈值时,根据当前待识别对象的名称和位置信息获得识别结果;当确定当前待识别对象的识别概率小于等于预定阈值时,即表明当前采用的识别模型可能不合适,则可以采用其他识别模型重新对当前待识别对象进行识别,直至当前待识别对象的识别概率大于预定阈值。
[0052]在该实施例中,在获得待识别对象的识别结果后,还可根据识别结果从本地的信息源中获得待识别对象的关联信息,然后对待识别对象的关联信息和识别结果进行整合,生成待识别对象的增强信息。
[0053]下面以服务器接收到客户端发送的图像信息中包含2条待识别的小狗为例,来详细说明服务器获得2条待识别的小狗对应的增强信息的过程。
[0054]具体而言,服务器对图像信息进行分割,获得图像信息中2条待识别的小狗和其在图像信息中对应的位置,然后按照2条待识别的小狗在图像信息中对应的位置对2条待识别的小狗分别进行识别,比如按照从左到右的顺序对2条待识别的小狗进行识别。进一步而言,首先根据本地的图像识别模型中对左边待识别的小狗进行识别,获得其对应的识别概率,如果当前的识别概率大于预设阈值例如80%,则确定左边待识别的小狗的名称为当前图像识别模型对应的名称。如果当前的识别概率小于等于预设阈值例如80%,则重新采用新的图像识别模型对左边待识别的小狗进行识别,直至左边待识别的小狗的识别概率大于预定阈值例如80%,然后根据当前的图像识别模型确定左边待识别的小狗的名称。在确定左边待识别的小狗的名称后,还可从本地的信息源中获得左边待识别的小狗的关联信息例如左边待识别的小狗的性格特点、饲养注意事项以及周围对应的宠物医院等信息,然后将关联信息和识别结果即待识别的小狗的名称进行整合,生成待识别的小狗的增强信息。
[0055]在获得图像信息中的左边待识别的小狗的增强信息之后,可通过相似的过程获得右边小狗对应的增强信息。
[0056]S203,向客户端返回增强信息及增强信息的显示位置信息,以使客户端同时显示待识别对象的增强信息和图像信息以实现增强现实。
[0057]具体而言,在获得图像信息中的增强信息后,将上述增强信息返回至客户端;客户端接收图像信息的增强信息,并在客户端上按照预定的方式将增强信息渲染叠加到客户端所获得的图像信息中,还可以利用全息投影的方式展示增强信息和所获得的图像信息,由此,使得客户端可同时显示待识别对象的增强信息和图像信息,增强了图像信息的现实性,方便了用户对待识别对象的了解。
[0058]本实施例模拟人脑对信息进行综合处理,来提高对待识别对象的识别概率,其中,对图像进行识别是其中非常关键的一环,同时基于串行或并行不同的识别方式采用不同的识别模型进行识别,可以大大提高识别概率,同时整合有用的信息源,可以做出真正具有增强信息意义的应用。
[0059]本发明实施例的增强现实的实现方法,接收客户端发送的待识别对象的相关信息,对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息,以及将增强信息和显示位置信息发送至客户端,由此,提供了一种实现增强现实的新的交互方式,使得客户端可以获得待识别对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加对待识别对象的了解。
[0060]为了实现上述实施例,本发明还提出一种客户端装置。该客户端装置可以位于移动终端中,还可以位于穿戴设备例如增强现实眼镜中。其中,移动终端是手机、平板电脑等具有各种操作系统的硬件设备。
[0061]图3是根据本发明一个实施例的客户端装置的结构示意图。
[0062]如图3所示,该客户端装置包括:获得模块11、通信模块12和显示模块13。
[0063]具体地,获得模块11用于获得待识别对象的相关信息。[0064]其中,待识别对象的相关信息包括待识别对象的图像信息。
[0065]另外,上述待识别对象的相关信息还可以包括待识别对象的声音信息、位置信息以及通过传感器获得的各种数据等。
[0066]另外,为了可以获得待识别对象的相关信息,上述获得模块11还可以包括但不限于图像采集单元、声音采集单元和位置采集单元。图像采集单元用于获得待识别对象的图像信息,声音采集单元用于获得待识别对象的声音信息,位置采集单元用于获得待识别对象的位置信息。
[0067]具体地,通信模块12用于向服务器发送相关信息,并接收服务器根据相关信息返回的待识别对象的增强信息及所述增强信息的显示位置信息。
[0068]其中,待识别对象的增强信息可以包括但不限于推荐信息、声音信息、地理服务信息等信息。
[0069]上述通信模块12具体用于对相关信息进行预处理,并向服务器发送处理后的相关信息。具体而言,在上述获得模块11获得待识别对象的图像信息、声音信息、位置信息后,通信模块12可分别对上述信息进行预处理,例如,通信模块12可对待识别对象的图像信息可进行切割、压缩等预处理,以及对待识别对象的声音信息可进行去噪、滤波处理等预处理。
[0070]在上述通信模块12对待识别对象的相关信息进行预处理后,上述通信模块12将处理后的相关信息发送至服务器。服务器在接收到待识别对象的相关信息后,将对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息,服务器还设置增强信息的显示位置信息,以及将生成的待识别对象的增强信息及增强信息的显示位置信息返回至客户端装置,通信模块12接收服务器返回的增强信息及增强信息的显示位置信息。
[0071]具体地,显示模块13用于根据显示位置信息,同时显示待识别对象的增强信息和图像信息以实现增强现实。
[0072]上述显示模块13具体用于按照预定的方式同时显示待识别对象的增强信息和图像信息。具体而言,在通信模块12接收到服务器返回的待识别对象的增强信息及增强信息的显示位置信息后,显示模块13可按照预定的方式将增强信息渲染叠加到客户端所获得的图像信息中,例如显示模块13可利用全息投影的方式展示增强信息和图像信息,全息投影的方式可使图像信息中显示的增强信息具有三维空间感,由此,使得显示模块13可同时显示待识别对象的图像信息和增强信息,增强了图像信息的现实性,方便了用户对待识别对象的了解。
[0073]包含获得模块11、通信模块12和接收模块13的客户端装置进行增强现实的实现过程可参见图1,此处不赘述。
[0074]本发明实施例的客户端装置,通过获得模块获得待识别对象的相关信息,通过通信模块向服务器发送待识别对象的相关信息,并接收服务器返回待识别对象的增强信息及增强信息的显示位置信息,以及通过显示模块同时显示待识别对象的图像信息和增强信息,通过增强信息用户可以获得待识别对象中的有用信息,方便了用户对待识别对象的了解。
[0075]为了实现上述实施例,本发明还提出一种服务器。[0076]图4是根据本发明一个实施例的服务器的结构示意图。
[0077]如图4所示,该服务器包括:接收模块21、融合处理模块22和返回模块23。
[0078]具体地,接收模块21用于接收客户端发送的待识别对象的相关信息,其中,待识别对象的相关信息包括待识别对象的图像信息。
[0079]具体而言,上述接收模块21不仅可以接收客户端发送的待识别对象的图像信息,还可以接收待识别对象的声音信息、位置信息和各种传感器获得的数据。
[0080]具体地,融合处理模块22用于对接收模块接收的相关信息进行识别,获得对应的识别结果,根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息。
[0081]具体地,返回模块23用于向客户端返回融合处理模块生成的增强信息及增强信息的显示位置信息,以使客户端根据显示位置信息,同时显示待识别对象的增强信息和图像信息以实现增强现实。
[0082]上述融合处理模块22可以包括识别单元221和整合单元222,如图5所示。
[0083]其中,识别单元221用于获得待识别对象对应的类型信息,根据类型信息确定采用的识别模型的顺序,并按照所述顺序采用对应的识别模型对相关信息进行识别,获得识别结果和/或并行采用对应的识别模型对相关信息进行识别,获得识别结果;整合单元222用于根据识别结果从本地的信息源中获得待识别对象的关联信息,对关联信息和识别结果进行整合,生成待识别对象的增强信息。
[0084]具体地,在上述接收模块21接收到客户端发送的待识别对象的相关信息后,上述识别单元221可根据待识别对象的相关信息获得待识别对象对应的类型信息,其中,类型信息可以包括但不限于动物、景点等类型。在上述识别单元221获得待识别对象对应的类型信息后,上述识别单元221还可按照顺序采用对应的识别模型并结合从本地的信息源中获得的信息,对相关信息进行识别,获得识别结果;和/或并行采用对应的识别模型并结合从本地的信息源中获得的信息,对相关信息进行识别,获得识别结果。
[0085]上述识别单元221具体包括:第一识别子单元2211和第二识别子单元2212。其中,第一识别子单元2211用于对待识别对象的图像信息进行识别,获得图像信息中包含的多个待识别对象以及每个待识别对象的名称、识别概率和位置信息;第二识别子单元2212用于对于每个待识别对象,当确定当前待识别对象的识别概率大于预定阈值时,根据当前待识别对象的名称和位置信息获得识别结果;当确定当前待识别对象的识别概率小于等于预定阈值时,重新对当前待识别对象进行识别,直至当前待识别对象的识别概率大于预定阈值。
[0086]包含接收模块21、融合处理模块22和返回模块23的服务器进行增强现实的实现的过程可参见图2,此处不赘述。
[0087]本发明实施例的服务器,通过接收模块接收客户端发送的待识别对象的相关信息,通过融合处理模块对相关信息进行识别,获得对应的识别结果,并根据识别结果生成待识别对象的增强信息及增强信息的显示位置信息,以及通过返回模块将增强信息及增强信息的显示位置信息发送至客户端,由此,提供了一种实现增强现实的新的交互方式,使得客户端可以获得待识别对象的增强信息,通过增强信息用户可以获得该对象中的有用信息,增加对待识别对象的了解。
[0088]应理解,本发明的各部分可用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
[0089]在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
[0090]此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“少两个,例如两个,三个等,除非另有明确具体的限定。
[0091]尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
【权利要求】
1.一种增强现实的实现方法,其特征在于,包括: 获得待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息; 向服务器发送所述相关信息,并接收所述服务器根据所述相关信息返回的所述待识别对象的增强信息及所述增强信息的显示位置信息;以及 根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
2.根据权利要求1所述的方法,其特征在于,所述待识别对象的相关信息还包括所述待识别对象的声音信息和位置信息。
3.根据权利要求1或2所述的方法,其特征在于,所述向服务器发送所述相关信息,包括: 对所述相关信息进行预处理,并向服务器发送处理后的相关信息。
4.根据权利要求1所述的方法,其特征在于,所述同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实,包括: 按照预定的方式同时显示所述待识别对象的所述增强信息和所述图像信息,所述预定的方式包括全息投影的方式。
5.—种增强现实的实现方法,其特征在于,包括: 接收客户端发送的待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息; 对所述相关信息进行识别,获得对应的识别结果,根据所述识别结果生成所述待识别对象的增强信息及所述增强信息的显示位置信息;以及 向所述客户端返回所述增强信息及所述增强信息的显示位置信息,以使所述客户端根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
6.根据权利要求5所述的方法,其特征在于,所述根据所述识别结果生成所述待识别对象的增强信息,包括: 根据所述识别结果从本地的信息源中获得所述待识别对象的关联信息,对所述关联信息和所述识别结果进行整合,生成所述待识别对象的增强信息。
7.根据权利要求5或6所述的方法,其特征在于,所述待识别对象的相关信息还包括所述待识别对象的声音信息和位置信息。
8.根据权利要求7所述的方法,其特征在于,所述对所述相关信息进行识别,包括: 获得所述待识别对象对应的类型信息,根据所述类型信息确定采用的识别模型的顺序,并按照所述顺序采用对应的识别模型对所述相关信息进行识别,获得识别结果;和/或 并行采用对应的识别模型对所述相关信息进行识别,获得识别结果。
9.根据权利要求8所述的方法,其特征在于,所述按照所述顺序采用对应的识别模型对所述相关信息进行识别,获得识别结果,包括: 按照所述顺序采用对应的识别模型并结合从本地的信息源中获得的信息,对所述相关信息进行识别,获得识别结果;和/或 所述并行采用对应的识别模型对所述相关信息进行识别,获得识别结果,包括:并行采用对应的识别模型并结合从本地的信息源中获得的信息,对所述相关信息进行识别,获得识别结果。
10.根据权利要求9所述的方法,其特征在于,所述对所述相关信息进行识别,获得识别结果,包括: 对所述待识别对象的图像信息进行识别,获得所述图像信息中包含的多个待识别对象以及每个待识别对象的名称、识别概率和位置信息; 对于每个待识别对象,当确定当前待识别对象的识别概率大于预定阈值时,根据所述当前待识别对象的名称和位置信息获得识别结果;当确定当前待识别对象的识别概率小于等于所述预定阈值时,重新对所述当前待识别对象进行识别,直至当前待识别对象的识别概率大于预定阈值。
11.一种客户端装置,其特征在于,包括: 获得模块,用于获得待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息; 通信模块,用于向服务 器发送所述相关信息,并接收所述服务器根据所述相关信息返回的所述待识别对象的增强信息及所述增强信息的显示位置信息;以及 显示模块,用于根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
12.根据权利要求11所述的客户端装置,其特征在于,所述待识别对象的相关信息还包括所述待识别对象的声音信息和位置信息。
13.根据权利要求11或12所述的客户端装置,其特征在于,所述通信模块,具体用于: 对所述相关信息进行预处理,并向服务器发送处理后的相关信息。
14.根据权利要求11所述的客户端装置,其特征在于,所述显示模块,具体用于: 按照预定的方式同时显示所述待识别对象的所述增强信息和所述图像信息,所述预定的方式包括全息投影的方式。
15.—种服务器,其特征在于,包括: 接收模块,用于接收客户端发送的待识别对象的相关信息,其中,所述待识别对象的相关信息包括所述待识别对象的图像信息; 融合处理模块,用于对所述接收模块接收的所述相关信息进行识别,获得对应的识别结果,根据所述识别结果生成所述待识别对象的增强信息及所述增强信息的显示位置信息;以及 返回模块,用于向所述客户端返回所述融合处理模块生成的所述增强信息及所述增强信息的显示位置信息,以使所述客户端根据所述显示位置信息,同时显示所述待识别对象的所述增强信息和所述图像信息以实现增强现实。
16.根据权利要求15所述的服务器,其特征在于,所述融合处理模块,包括: 整合单元,用于根据所述识别结果从本地的信息源中获得所述待识别对象的关联信息,对所述关联信息和所述识别结果进行整合,生成所述待识别对象的增强信息。
17.根据权利要求16所述的服务器,其特征在于,所述待识别对象的相关信息还包括所述待识别对象的声音信息和位置信息。
18.根据权利要求16或17所述的服务器,其特征在于,所述融合处理模块,还包括:识别单元,用于获得所述待识别对象对应的类型信息,根据所述类型信息确定采用的识别模型的顺序,并按照所述顺序采用对应的识别模型对所述相关信息进行识别,获得识别结果;和/或 并行采用对应的识别模型对所述相关信息进行识别,获得识别结果。
19.根据权利要求18所述的服务器,其特征在于,所述识别单元,具体用于: 按照所述顺序采用对应的识别模型并结合从本地的信息源中获得的信息,对所述相关信息进行识别,获得识别结果;和/或 并行采用对应的识别模型并结合从本地的信息源中获得的信息,对所述相关信息进行识别,获得识别结果。
20.根据权利要求19所述的装置,其特征在于,所述识别单元,包括: 第一识别子单元,用于对所述待识别对象的图像信息进行识别,获得所述图像信息中包含的多个待识别对象以及每个待识别对象的名称、识别概率和位置信息; 第二识别子单元,用于对于每个待识别对象,当确定当前待识别对象的识别概率大于预定阈值时,根据所述当前待识别对象的名称和位置信息获得识别结果;当确定当前待识别对象的识别概率小于等于所述预定阈值时,重新对所述当前待识别对象进行识别,直至当前待识别对象的识别 概率大于预定阈值。
【文档编号】G06F17/30GK103942049SQ201410149033
【公开日】2014年7月23日 申请日期:2014年4月14日 优先权日:2014年4月14日
【发明者】杨春勇, 贺周洲, 傅正超, 隋鑫 申请人:百度在线网络技术(北京)有限公司