混合现实的教学环境、教师、教具互动系统及互动方法与流程

文档序号:19679314发布日期:2020-01-14 17:06阅读:490来源:国知局
混合现实的教学环境、教师、教具互动系统及互动方法与流程

本发明涉及学校教育领域,尤其涉及一种混合现实的教学环境、教师、教具互动系统及互动方法。



背景技术:

随着科技的进步,ar(augmentedreality,增强现实技术)、vr(virtualreality,虚拟现实技术)及mr(mixedreality,混合现实技术)技术在中国处于起步阶段,但市场前景却相当广阔,发展潜力巨大。并且随着互联网行业的快速发展,ar、vr及mr技术也开始普遍发展。

在学前教育领域中,vr技术的应用却远远滞后于产业技术的发展。学前教育是受教育者的基础教育,对其一生的影响十分深远,《中国儿童发展纲要(2011-2020)》中明确指出,“要加快发展3-6岁儿童学前教育,优化教育资源,拓展数字化学习的空间,全面推进教育现代化和信息化”,进一步提升学前教育的质量,把vr技术运用到学前教育中便成为必然。

目前,传统的ar实现方式如图1所示,其ar显示系统包括显示设备、摄像头以及运行ar软件平台终端,其过程为首先通过摄像头识别教师手持的标识模型,然后传输至运行ar软件平台终端并对标识模型进行处理,以通过显示设备呈现叠加在现实长金总的虚拟模型。将vr技术运用到学前教育中还需解决以下问题,(1)如何让优质幼儿教育资源向农村地区、边远地区、贫困地区和民族地区覆盖,其中,具体的技术问题是小朋友怎样能够感受虚拟的幼儿园环境、教师、玩伴、玩具等,并且怎样与虚拟教师、虚拟玩伴和虚拟玩具进行互动;(2)传统培训方式受限于场地、时间、资料、经费等因素,呈现效率不高、持续性弱,不利于学员理解、消化,深化创新;(3)缺乏针对课程执教讨论交流和展示自我的平台,成就感、荣誉感需要舞台,这也是教师教学能动性和创造性的动力之源;(4)受限于培训师资人力与精力瓶颈,培训师资跟不上发展需求。



技术实现要素:

针对现有技术中存在的上述问题,现提供一种混合现实的教学环境、教师、教具互动系统及互动方法。

具体技术方案如下:

本发明提供一种混合现实的教学环境互动系统,其中,至少包括一个ar显示设备,所述ar显示设备根据真实环境的空间尺寸,提供用于显示覆盖于所述真实环境的真实地面、真实墙面和真实顶棚的不同教学环境相关内容选项的虚拟地面、虚拟墙面和虚拟顶棚,所述虚拟地面、所述虚拟墙面及所述虚拟顶棚组成一虚拟环境。

优选的,所述ar显示设备包括一第一图像采集模块与一第一传感器模块;

所述第一图像采集模块,用于获取所述真实环境的图像信息;

所述第一传感器模块,用于获取所述ar显示设备的状态信息,以及相对于所述ar显示设备的所述真实环境的状态信息。

优选的,所述第一图像采集模块包括一3d扫描仪或tof摄像头;

所述3d扫描仪或tof摄像头,用于采集所述真实环境内的图像信息、距离信息及尺寸信息,并根据所述图像信息、所述距离信息及所述尺寸信息来识别用户与所述真实环境的实时相对位置状态。

优选的,所述第一传感器模块包括一角速度传感器、一陀螺仪或imu传感器;

所述角速度传感器,用于识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

所述陀螺仪或imu传感器,用于识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,所述教学环境互动系统还包括一虚拟环境生成模块,所述虚拟环境生成模块用于根据所述真实环境建立与教学环境相关的所述虚拟环境,并将所述虚拟环境投射至所述ar显示设备中,并敷贴显示于所述真实环境的表面。

本发明还提供一种混合现实的教师互动系统,其中,至少包括一个ar显示设备,所述ar显示设备根据真实教师的影像/图像,提供用于显示虚拟教师的影像/图像,用户通过使用所述ar显示设备与所述虚拟教师进行教学互动。

优选的,所述ar显示设备包括一第二图像采集模块与一第二传感器模块;

所述第二图像采集模块,用于获取所述真实教师的影像/图像信息;

所述第二传感器模块,用于获取所述ar显示设备的状态信息,以及相对于所述ar显示设备的所述真实教师和/或虚拟教师的状态信息。

优选的,所述第二图像采集模块包括一3d扫描仪或tof摄像头;

所述3d扫描仪或tof摄像头,用于采集所述真实教师的影像/图像信息,并根据所述影像/图像信息来识别所述真实教师的实时状态。

优选的,所述第二传感器模块包括一角速度传感器、一陀螺仪或imu传感器;

所述角速度传感器,用于识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

所述陀螺仪或imu传感器,用于识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,所述教师互动系统还包括一虚拟人物生成模块,所述虚拟人物生成模块用于根据所述真实教师建立所述虚拟教师,并将所述虚拟教师投射至所述ar显示设备中。

优选的,所述教师互动系统还包括:

一手势识别模块,所述手势识别模块用于识别所述用户执行的手势动作;

一语音提示模块,所述语音提示模块用于根据触发条件触发所述虚拟教师对所述真实教具的信息进行讲解。

优选的,所述教师互动系统还包括:

一语音识别模块,所述语音识别模块用于采集所述用户发出的语音信息,并根据所述语音信息查找对应的反馈内容;

所述语音提示模块,用于根据所述触发条件触发所述虚拟教师对所述真实教具和/或虚拟教具的信息进行讲解。

本发明还提供一种混合现实的教具互动系统,其中,至少包括一个ar显示设备,所述ar显示设备根据真实教具,提供用于显示由所述真实教具触发的3d虚拟教具,用户通过使用所述ar显示设备与所述3d虚拟教具进行教学互动。

优选的,所述ar显示设备包括一第三图像采集模块与一第三传感器模块;

所述第三图像采集模块,用于获取所述真实教具的图像信息;

所述第三传感器模块,用于获取所述ar显示设备的状态信息,以及相对于所述ar显示设备的所述真实教具和/或3d虚拟教具的状态信息。

优选的,所述第三图像采集模块包括一3d扫描仪或tof摄像头;

所述3d扫描仪或tof摄像头,用于采集所述真实教具的图像信息,并根据所述图像信息来识别所述真实教具的实时状态。

优选的,所述第三传感器模块包括一角速度传感器、一陀螺仪或imu传感器;

所述角速度传感器,用于识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

所述陀螺仪或imu传感器,用于识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,所述教具互动系统还包括一虚拟教具生成模块,所述虚拟教具生成模块用于根据所述真实教具触发建立所述3d虚拟教具,并将所述3d虚拟教具投射至所述ar显示设备中;

所述虚拟教具生成模块还用于根据用户的真实手模型触发建立虚拟手模型,并将所述虚拟手模型投射至所述ar显示设备中。

优选的,所述教具互动系统还包括:

一红外感应模块,所述红外感应模块用于感应所述真实手模型的手势信息,并根据所述手势信息判断所述虚拟手模型的执行动作。

优选的,所述教具互动系统还包括:

一手势同步模块,所述手势同步模块用于识别真实教师对所述3d虚拟教具执行的手势动作,并将所述手势动作同步到其他所述ar显示设备中;

一语音同步模块,所述语音同步模块用于采集所述真实教师讲解的语音信息,并将所述语音信息同步到其他所述ar显示设备中。

优选的,所述教具互动系统还包括至少一个教师控制端和/或至少一个学生控制端,当地或者远程的所述真实教师通过所述教师控制端连接所述ar显示设备,并与每个所述学生控制端进行互动。

优选的,所述教师控制端包括:

一存储模块,所述存储模块用于预先存储课程学习视频、考试测评习题、游戏项目及教学资源;

一创建模块,所述创建模块用于根据所述课程学习视频、所述考试测评习题、所述游戏项目及所述教学资源,以创建教学课程、游戏项目及测试项目;

一管理模块,所述管理模块用于分别对所述教学课程、所述游戏项目及所述测试项目进行编辑、添加、删除及修改。

优选的,所述教具互动系统还包括一云端;

所述云端分别通信连接,或者通过网络设备分别通信连接至少一个所述ar显示设备。

本发明还提供一种混合现实的教学环境互动方法,其中,包括以下步骤:

步骤s10、ar显示设备根据真实环境的空间尺寸,提供用于显示覆盖于所述真实环境的真实地面、真实墙面和真实顶棚的不同教学环境相关内容选项的虚拟地面、虚拟墙面和虚拟顶棚,所述虚拟地面、所述虚拟墙面及所述虚拟顶棚组成一虚拟环境。

优选的,于所述步骤s10包括:

步骤s100、采集所述真实环境内的图像信息、距离信息及尺寸信息,并根据所述图像信息、所述距离信息及所述尺寸信息来识别用户与所述真实环境的实时相对位置状态。

优选的,于所述步骤s10包括:

步骤s101、识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

步骤s102、识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,于所述步骤s10还包括:

步骤s103、根据所述真实环境建立与教学环境相关的所述虚拟环境,并将所述虚拟环境投射至所述ar显示设备中,并敷贴显示于所述真实环境的表面。

本发明还提供一种混合现实的教师互动方法,其中,包括以下步骤:

步骤s20、ar显示设备根据真实教师的影像/图像,提供用于显示虚拟教师的影像/图像,用户通过使用所述ar显示设备与所述虚拟教师进行教学互动。

优选的,于所述步骤s20包括:

步骤s201、采集所述真实教师的影像/图像信息,并根据所述影像/图像信息来识别所述真实教师的实时状态。

优选的,于所述步骤s20包括:

步骤s202、识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

步骤s203、识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,于所述步骤s20包括:

步骤s204、根据所述真实教师建立所述虚拟教师,并将所述虚拟教师投射至所述ar显示设备中。

优选的,于所述步骤s20包括:

步骤s205、识别所述用户执行的手势动作;

步骤s206、根据触发条件触发所述虚拟教师对所述真实教具的信息进行讲解。

优选的,于所述步骤s20还包括:

步骤s207、采集所述用户发出的语音信息,并根据所述语音信息查找对应的反馈内容;

步骤s208、根据触发条件触发所述虚拟教师对所述真实教具或虚拟教具的信息进行讲解。

本发明还提供一种混合现实的教具互动方法,其中,包括以下步骤:

步骤s30、ar显示设备根据真实教具,提供用于显示由所述真实教具触发的3d虚拟教具,用户通过使用所述ar显示设备与所述3d虚拟教具进行教学互动。

优选的,于所述步骤s30包括:

步骤s300、采集所述真实教具的图像信息,并根据所述图像信息来识别所述真实教具的实时状态。

优选的,于所述步骤s30还包括:

步骤s301、识别所述ar显示设备在所述真实环境内的旋转角度,并根据所述旋转角度计算得到所述ar显示设备在所述虚拟环境内的位置信息;

步骤s302、识别所述ar显示设备在所述真实环境内的移动距离,并根据所述移动距离计算得到所述ar显示设备在所述虚拟环境内的所述位置信息。

优选的,于所述步骤s30还包括:

步骤s303、根据所述真实教具触发建立所述3d虚拟教具,并将所述3d虚拟教具投射至所述ar显示设备中;

步骤s304、根据用户的真实手模型触发建立虚拟手模型,并将所述虚拟手模型投射至所述ar显示设备中。

优选的,于所述步骤s30包括:

步骤s305、感应所述真实手模型的手势信息,并根据所述手势信息判断所述虚拟手模型的执行动作。

优选的,于所述步骤s30还包括:

步骤s306、识别真实教师对所述3d虚拟教具执行的手势动作,并将所述手势动作同步到其他所述ar显示设备中;

步骤s307、采集所述真实教师讲解的语音信息,并将所述语音信息同步到其他所述ar显示设备中。

优选的,于所述步骤s30还包括:

步骤s308、所述ar显示设备预先存储课程学习视频、考试测评习题、游戏项目及教学资源;

步骤s309、所述ar显示设备根据所述课程学习视频、所述考试测评习题、所述游戏项目及所述教学资源,以创建教学课程、游戏项目及测试项目;

步骤s310、所述ar显示设备分别对所述教学课程、所述游戏项目及所述测试项目进行编辑、添加、删除及修改。

本发明的技术方案有益效果在于:

提供一种混合现实的教学环境互动系统及互动方法,结合ar技术为用户创建一个虚拟教学环境,满足多维交互体验的实践教学需求,不受时间和空间的限制,同时在教学环境内能够提升小朋友对事物的兴趣,能够吸引小朋友能够学习和参与到教学中;

提供一种混合现实的教师互动系统及互动方法,融入ar技术添加虚拟教师,可以用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让小朋友用研究看、耳朵听、动手做,进一步地用脑思考,真正实现了理论实践的教育理念,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,真正实现“教与学”的双线并进和实时互动;

提供一种混合现实的教具互动系统及互动方法,不仅可以实现“虚拟实训景”教学,还可以实现混合现实的远程教学,强大的优质资源和多维交互体验技术,有效打破实景实践瓶颈,能解决城乡教育资源不均衡问题。

附图说明

参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。

图1为现有技术中,传统ar技术实现方式的原理图;

图2本发明的实施例的混合现实的教学环境互动系统的系统框图;

图3为本发明的实施例的混合现实的教学环境互动系统的选择虚拟墙壁的选择示意图;

图4为本发明的实施例的混合现实的教学环境互动系统的教学环境的互动场景示意图;

图5为本发明的实施例的混合现实的教师互动系统的原理框图;

图6为本发明的实施例的混合现实的教师互动系统的虚拟教师授课的示意图;

图7为本发明的实施例的混合现实的教具互动系统的原理框图;

图8为本发明的实施例的混合现实的教具互动系统的3d地球、卫星教学内容示意图;

图9为本发明的实施例的混合现实的教具互动系统的教学课程的登录页面示意图;

图10为本发明的实施例的混合现实的教具互动系统的教学课程的主页面示意图;

图11为本发明的实施例的混合现实的教具互动系统的套娃游戏示意图;

图12为本发明的实施例的混合现实的教具互动系统的测试项目页面示意图;

图13为本发明的实施例的混合现实的教学环境互动方法的步骤流程图;

图14为本发明的实施例的混合现实的教学环境互动方法的步骤s10的实施例一的步骤流程图;

图15为本发明的实施例的混合现实的教学环境互动方法的步骤s10的实施例二的步骤流程图;

图16为本发明的实施例的混合现实的教学环境互动方法的步骤s10的实施例三的步骤流程图;

图17为本发明的实施例的混合现实的教师互动方法的步骤流程图;

图18为本发明的实施例的混合现实的教师互动方法的步骤s20的实施例一的步骤流程图;

图19为本发明的实施例的混合现实的教师互动方法的步骤s20的实施例二的步骤流程图;

图20为本发明的实施例的混合现实的教师互动方法的步骤s20的实施例三的步骤流程图;

图21为本发明的实施例的混合现实的教师互动方法的步骤s20的实施例四的步骤流程图;

图22为本发明的实施例的混合现实的教师互动方法的步骤s20的实施例五的步骤流程图;

图23为本发明的实施例的混合现实的教具互动方法的步骤流程图;

图24为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例一的步骤流程图;

图25为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例二的步骤流程图;

图26为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例三的步骤流程图;

图27为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例四的步骤流程图;

图28为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例五的步骤流程图;

图29为本发明的实施例的混合现实的教具互动方法的步骤s30的实施例六的步骤流程图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。

需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。

下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。

本发明是以互联网加学前教育应用的新型教育模式,以ar为核心技术探索学前教育专业人才培养新形势的交互式体验的实践教学系统,将vr/ar/mr技术与学前教育进行深度融合,不但能够极大的促进vr/ar/mr技术产业的发展,同时也将极大的促进学前教育新形态的建立。并且借助ar技术、大数据、ai运算、移动互联网等多种科技,建立一个开放的、科技化的师培系统,让师培效率最大化、让师培过程互动化、让师培成果数据化。

实施例一:

提供一种混合现实的幼儿园(中、小学)教学环境互动系统,其中,至少包括一个ar显示设备,ar显示设备根据真实环境的空间尺寸,提供用于显示覆盖于真实环境的真实地面、真实墙面和真实顶棚的不同教学环境相关内容选项的虚拟地面、虚拟墙面和虚拟顶棚,虚拟地面、虚拟墙面及虚拟顶棚组成一虚拟环境。

通过上述混合现实的教学环境互动系统的技术方案,如图2所示,用户即小朋友可以佩戴ar显示设备,例如ar显示设备为ar眼镜或ar头盔,可以识别真实环境的空间尺寸,例如近似方形空间的四壁以及顶面、地面,其中顶面和地面都是方形或长方形。

进一步地,采用ar显示设备的虚拟环境生成模块12将根据真实环境建立与教学环境相关的虚拟环境,并将虚拟环境投射至ar显示设备中,并敷贴显示于真实环境的表面,例如虚拟环境包括虚拟地面、虚拟墙面和虚拟顶棚。在小朋友装饰之前,系统预先提供的装饰素材,在虚拟环境内,小朋友选择虚拟墙面时的选择界面如图3所示,即小朋友可以徒手选择布置内容例如有教具、家具、地面、墙面、顶部的装饰素材,然后对选中的项目确认,其中小朋友可以根据系统预先提供的装饰素材,给该虚拟环境内的虚拟墙面进行“贴图”装饰,营造出教学环境的互动场景,例如充满虚拟地面的大鲸鱼地毯,虚拟墙壁上贴附有各种不同的可爱动物的贴图,顶棚也可以设置,目前只提供很常规平面设计,如图4所示,例如,小朋友可以将虚拟墙面贴附有长颈鹿、海豚、熊猫的贴图,还贴附有绿树以及彩虹,虚拟顶部是常规平面设置,例如照明灯,小朋友也可以设置其他贴图装饰,在此不再赘述。

进一步地,小朋友可以在该虚拟环境内自由移动,贴在真实墙面、真实地面和真实顶棚的“贴图”则不会移动,结合ar技术创建虚拟教学环境,满足多维交互体验的实践教学需求,为小朋友提供一个虚拟教学环境,不受时间和空间的限制,并且能够提升小朋友对事物的兴趣,能够吸引小朋友能够学习和参与到教学中。

上述技术方案中,作为较优的实施方式,ar显示设备包括一第一图像采集模块10与一第一传感器模块11;

第一图像采集模块10,用于获取真实环境的图像信息;

第一传感器模块11,用于获取ar显示设备的状态信息,以及相对于ar显示设备的真实环境的状态信息。

具体地,如图2所示,第一图像采集模块10可以获取到真实环境的真实地面、真实墙面和真实顶棚的图像信息,例如,第一图像采集模块10可以采用鱼眼摄像头不间断的拍摄真实环境的图像信息,分析比较每一帧的图像信息的特征点,如果判断特征点向左移动,就可以推断为ar显示设备向右移动,如果判断特征点向右移动,就可以推断为ar显示设备可能向左移动,向上向下同理,如果判断特征点之间的距离越来越大,可以推断为ar显示设备向前移动,如果判断距离越来越小,可以推断为ar显示设备向后移动。

进一步地,第一传感器模块11可以获取ar显示设备的朝向信息、高度信息及空间位置信息,也可以获取到相对于ar显示设备的真实环境与周边相对的位置信息及相对距离。例如,第一图像采集模块10的鱼眼摄像头可以结合第一传感器模块11的imu(inertialmeasurementunit,惯性测量装置)传感器,其中imu传感器包括陀螺仪、重力、加速度、磁场仪四种传感器,通过特定的算法,就可以得到ar显示设备的旋转和相对位移,即能够感应设备的前、后、左、右、上、下、前、后的移动。

进一步地,结合使用鱼眼摄像头或imu传感器,使得小朋友可以在该虚拟环境内自由移动。

上述技术方案中,作为较优的实施方式,第一图像采集模块10包括一3d扫描仪或tof摄像头;

3d扫描仪或tof摄像头,用于采集真实环境内的图像信息、距离信息及尺寸信息,并根据图像信息、距离信息及尺寸信息来识别用户与真实环境的实时相对位置状态。

具体地,例如,可以选择3d扫描仪,也可以选择激光雷达、毫米波雷达等传感器,也可以选择(双)鱼眼摄像头,通过(双)鱼眼摄像头能够获取超广视野,在(双)鱼眼摄像头之后安装的是一百万像素的单色传感器,有效提高了在低照度下捕捉影像的能力,工作时两个(双)鱼眼摄像头协同工作,以30fps速度扫描周边环境,通过三角测量原理计算ar显示设备与当前景物的距离,其原理与手机双摄像头拍摄虚化背景照片相同,但不同点在于两个双鱼眼摄像头的间距很大,精度更高,距离信息经处理后变换为空间位置信息,获取映射至软件系统应用里面的某个节点,例如,软件系统应用可以是unity软件,然后与单色传感器的数据进行融合,节点能随着ar显示设备的位置移动而移动,随着ar显示设备的转动而转动,但是在虚拟环境中节点以外的物体可以静止在原地,这样通过3d扫描仪与(双)鱼眼摄像头的配合使用,使得小朋友可以在虚拟环境中自由行走或自由移动,贴在真实墙面、地面和顶面的“贴图”则不会移动。

上述技术方案中,作为较优的实施方式,第一传感器模块11包括一角速度传感器、一陀螺仪或imu传感器;

角速度传感器,用于识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;

陀螺仪或imu传感器,用于识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

具体地,角速度传感器的自由度总共有六个(6dof),分为在x,y,z轴位移和围绕x,y,z轴旋转,在任意一个自由度中,物体可以沿两个“方向”自由运动,例如,电梯限制在一个自由度中,但电梯能够在这个自由度中上下运动,同样,摩天轮限制在1个(旋转)自由度中,但这是旋转自由度,所以摩天轮能够朝相反的方向旋转,例如,主题公园,碰碰车总共有3个自由度(x、y和旋转z),它只能在3轴中的2条轴里平移,然后它只能以一种方式旋转,即2个平移、1个旋转总计为3自由度。

进一步地,无论多复杂,程序设定中的物体的任何可能性运动都可以通过6自由度的组合进行表达,例如在用球拍击或打网球的时候,球拍的复杂运动可以表示为平移和旋转的组合。

进一步地,采用陀螺仪识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息,即通过陀螺仪可以实现空间追踪或定位。或采用imu传感器识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息,即通过加速度计、陀螺仪和磁力计等传感器组合来进行识别测量,简单明了。

进一步地,在程序中,将挂载获得位移信息和旋转信息的物体放在虚拟环境中座标的原点,程序在启动的时候,ar显示设备的座标系和虚拟环境的座标系就是重合的,将挂载单色传感器的数据的物体绑定在代表ar显示设备的物体上,并偏移一段距离,即可识别为人手或者手持工具。

接下来,小朋友就可以从虚拟物存储库中拿出具体的3d虚拟物,在这个虚拟环境内摆放自己喜欢的3d虚拟的小桌子、小椅子、小书架等家具产品,构成小朋友喜欢的环境装饰,需要说明的是,这些家具在空间中的方向或朝向是可以调整的。

可拓展地,小朋友也可以从虚拟物存储库中拿出具体的3d虚拟物,在这个空间内摆放自己喜欢的虚拟的小摆设,例如卡通钟,自己的照片,其中照片内容需提前提供给系统,放置在指定目录下、大毛绒玩具等等。

进一步地,该教学环境互动系统结合ar技术创建虚拟教学环境,满足多维交互体验的实践教学需求,为小朋友提供一个虚拟教学环境,不受时间和空间的限制,并且能够提升小朋友对事物的兴趣,从而以互动形式探查、研究更深层次的内容,进一步地吸引小朋友能够学习和参与到教学中。

实施例二:

本发明还提供一种混合现实的教师互动系统,其中,至少包括一个ar显示设备,ar显示设备根据真实教师的影像/图像,提供用于显示虚拟教师的影像/图像,用户通过使用ar显示设备与虚拟教师进行教学互动。

通过上述混合现实的教师互动系统的技术方案,如图4所示,基于上述实施例一构建的虚拟环境内,该教师互动系统内添加虚拟教师以及真实教具例如数字卡、汉字卡、救护车、警车、救火车、动物玩具模型等等与小朋友进行互动。其中,虚拟教师是由虚拟人物生成模块22根据真实教师而建立的,并将虚拟教师投射至ar显示设备中。

进一步地,该教师互动系统融入ar技术添加虚拟教师,可以用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让小朋友用研究看、耳朵听、动手做,进一步地用脑思考,真正实现了理论实践的教育理念,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,真正实现“教与学”的双线并进和实时互动。

上述技术方案中,作为较优的实施方式,ar显示设备包括一第二图像采集模块20与一第二传感器模块21;

第二图像采集模块20,用于获取真实教师的影像/图像信息;

第二传感器模块21,用于获取ar显示设备的状态信息,以及相对于ar显示设备的真实教师和/或虚拟教师的状态信息。

具体地,如图4所示,第二图像采集模块20可以获取真实教师的影像/图像信息,例如,采用3d扫描仪或tof摄像头可以采集真实教师的影像/图像信息,并根据图像信息来识别真实教师的实时状态,即实时状态可以是空间中的行动、空间中的行走,手势和脸部表情、动嘴(说话)行为等。

进一步地,第二传感器模块21可以获取ar显示设备的朝向信息、高度信息、空间位置信息,以及第二传感器模块21可以获取相对于ar显示设备的真实教师和/或虚拟教师的与虚拟人物的相对位置、相对距离等,该虚拟人物可以是虚拟教师,也可以是虚拟学生。例如,采用角速度传感器可以识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;采用陀螺仪或imu传感器可以识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

上述技术方案中,作为较优的实施方式,上述技术方案中,作为较优的实施方式,教师互动系统还包括:

一手势识别模块23,手势识别模块23用于识别用户执行的手势动作;

一语音提示模块25,语音提示模块25用于根据触发条件触发虚拟教师对真实教具的信息进行讲解。

具体地,如图4所示,该ar技术与手势识别技术是基于传感器、鱼眼摄像头、imu等传感器获取的三维参数,叠加入ar三维展示空间(坐标体系),以及叠加真实空间(地球坐标体系),三个空间精确叠加而形成的。

进一步地,小朋友可以拿起真实教具,头戴ar显示设备,其ar显示设备中的摄像头可以ai智能识别到是具体的教具,根据触发条件会触发虚拟教师对该教具进行知识讲解,播放演示相关视频等进行教学,其中触发条件包括手势动作或真实教具,如图6所示,例如虚拟教师对该教具进行知识讲解的同时,背景会出现“虚拟之间,触碰未来”“混合现实幼儿园”的字样,让小朋友更能够身临其境地感受虚拟教学环境。

上述技术方案中,作为较优的实施方式,教师互动系统还包括:

一语音识别模块24,语音识别模块24用于采集用户发出的语音信息,并根据语音信息查找对应的反馈内容;

语音提示模块25,用于根据触发条件触发虚拟教师对真实教具和/或虚拟教具的信息进行讲解。这里的虚拟教师是程序预先设定好的,只是根据触发条件,进行具体语音、动作、教授和讲解。

具体地,如图4所示,根据需要开通连接语音通话,可使任一发言者的声音同步至其它头戴的ar显示设备的耳麦中。即小朋友在非测试的环节中,可以就玩具进行提问,语音会被转化成文字,或者语音提问本身,通过ar显示设备中的通信芯片在网络中进行问题搜索,检索到的答案,通过虚拟教师的口中回答给小朋友听。

进一步地,该教师互动系统通过unity3d引擎发布成对应硬件使用平台例如包括安卓、ios、psp、等的应用程序,作为内容端,并设多台ar/vr头戴式ar显示设备,其中包括教师控制端36和学生端,头戴式ar显示设备实时显示同样的内容,其内容的视角、远近、播放(图形和声效)、暂停或互动等均由教师控制端36来完成。

进一步地,小朋友可以通过头戴ar显示设备就可以置身于虚拟教学环境之中,通过该小朋友的语音信息或手势信息,能够被系统所识别,系统会根据语音语义或行为手势结果,与虚拟教师或虚拟教具进行互动,触发虚拟人或物的声音和行为的反馈

进一步地,通过融入ar技术添加虚拟教师,可以用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让小朋友用研究看、耳朵听、动手做,进一步地用脑思考,真正实现了理论实践的教育理念,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,真正实现“教与学”的双线并进和实时互动。

实施例三:

本发明还提供一种混合现实的教具互动系统,其中,至少包括一个ar显示设备,ar显示设备根据真实教具,提供用于显示由真实教具触发的3d虚拟教具,用户通过使用ar显示设备与3d虚拟教具进行教学互动。

通过上述混合现实的教具互动系统的技术方案,如图7所示,基于上述实施例一构建的虚拟环境内,该教具互动系统添加3d虚拟教具,例如恐龙模型、几何形状块、虚拟植物、虚拟地球(仪)如图8所示、太阳系模型等等与小朋友进行互动。其中,3d虚拟教具是由虚拟教具生成模块32根据真实教具触发建立产生,并将3d虚拟教具投射至ar显示设备中。

进一步地,该教具互动系统不仅可以实现“虚拟实训景”教学,还可以实现混合现实的远程教学,强大的优质资源和多维交互体验技术,有效打破实景实践瓶颈,能解决城乡教育资源不均衡问题。

上述技术方案中,作为较优的实施方式,ar显示设备包括一第三图像采集模块30与一第三传感器模块31;

第三图像采集模块30,用于获取真实教具的图像信息;

第三传感器模块31,用于获取ar显示设备的状态信息,以及相对于ar显示设备的真实教具和/或3d虚拟教具的状态信息。

具体地,如图7所示,第三图像采集模块30例如采用3d扫描仪或tof摄像头可以采集真实教具的图像信息,并根据图像信息来识别真实教具的朝向状态、高度状态、空间位置状态等。

进一步地,第三传感器模块31可以获取ar显示设备的状态信息,以及可以获取相对于ar显示设备的真实教具和/或3d虚拟教具的与周边的相对位置、相对距离等。例如,可以采用角速度传感器识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;采用陀螺仪或imu传感器识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

上述技术方案中,作为较优的实施方式,教具互动系统还包括:

一红外感应模块33,红外感应模块33用于感应真实手模型的手势信息,并根据手势信息判断虚拟手模型的执行动作。

具体地,如图7所示,基于该教具互动系统的ar显示设备,结合红外感应器例如红外摄像头,来实现手势抓取虚拟物体的功能。首先,利用unity3d引擎搭建3d虚拟环境,在该虚拟环境内创建3d虚拟教师、虚拟同学以及虚拟玩具,与此同时,还需要结合不同教学环境相关的内容选项对教学环境进行布置,该以上内容均可根据真实人或物进行3d建模。

进一步地,利用六自由度的sdk(softwaredevelopmentkit,软件开发工具包),例如可以是软件工程师为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合。

进一步地,通过ar显示设备上的陀螺仪可以定位数据,计算ar显示设备在虚拟环境内的位置,同时映射到unity3d创建的虚拟环境中,从而实现能够在3d空间中旋转以及行走的6d自由度的效果。

进一步地,利用传感器提供的识别手势(空间参数)的sdk,在虚拟环境中加入手模型,其包括手部和手臂,其这里需要传感器的驱动以及硬件设备支持。传感器能够把驱动检测到的手势信息参数传递到unity3d引擎,并映射这些信息到手模型上,即可实现将真实的手模拟成虚拟手模型,并呈现到虚拟的3d虚拟环境中。

进一步地,在unity3d引擎中将手势的信息进行分析计算,得到一些特定的手势形状,例如“捏或握”,手势传感器分析得到“捏或握”动作的开始和结束。即开始和结束时依照食指和拇指指尖的距离进行设定,当两者之间的距离小于预设的阈值时,即为进入“捏或握”的状态,大于预设的阈值时,即为离开“捏或握”的状态。

进一步地,在能够识别“捏或握”动作之后,在其中加入交互,例如“捏或握”住一个虚拟物体,该原理是在虚拟手指捏或握住的位置创建一个可以用于触发的小球,小球的角度会随虚拟手的旋转而转动,当虚拟手指捏或握住虚拟物体时,即该虚拟物体的触发器与小球接触或相交,一般虚拟物体的触发器被设定在物体的表面上,然后将物体与小球的位置和角度进行锁定,相当于将物体“挂”在小球上,这样虚拟手模型移动和旋转也会带着虚拟物体移动和旋转,从而实现抓取的功能。并进一步做指向判断,即判断小朋友的食指指尖与虚拟物的空间位置关系,当判断指尖接触或者指尖指入,都算是选中。进一步地,该教具互动系统利用强大的优质资源和多维交互体验技术,有效打破实景实践瓶颈,能解决城乡教育资源不均衡问题。

上述技术方案中,作为较优的实施方式,教具互动系统还包括:

一手势同步模块34,手势同步模块34用于识别真实教师对3d虚拟教具执行的手势动作,并将手势动作同步到其他ar显示设备中;

一语音同步模块35,语音同步模块35用于采集真实教师讲解的语音信息,并将语音信息同步到其他ar显示设备中。

具体地,如图7所示,小朋友通过头戴ar显示设备可以置身于虚拟环境之中,该小朋友的语音信息或手势信息,能够被系统所识别,并同步至系统,系统会根据语音语义或行为手势结果,与虚拟教师或虚拟教具进行互动,触发虚拟人或物的声音和行为的反馈。

上述技术方案中,作为较优的实施方式,教具互动系统还包括至少一个教师控制端36和/或至少一个学生控制端37,当地或者远程的真实教师通过教师控制端36连接ar显示设备,并与每个学生控制端37进行互动。

具体地,如图7所示,在该教具互动系统中,远程连接系真实教师,即远程有接入系统,远程环境下有兼容该ar显示设备的显示屏,结合虚拟的3d教具,例如,恐龙模型、几何形状块、虚拟植物、虚拟地球(仪)、太阳系模型等等与本地小朋友进行互动。

进一步地,基于手势识别技术,系统可以“观察到”小朋友徒手捏到的虚拟物体,远程的真实教师可以借助ar显示设备投影识别到小朋友视野(第一视角)中的真实背景和虚拟物体,远程的真实教师就可以向小朋友讲解该虚拟物体,ar显示设备可以复制同样的虚拟物体在教师控制端36,真实教师也可以借助ar显示设备,其中含手势识别器“拿着”虚拟物体进行讲解;同样地,系统可以将教师端(第三视角下)的真实背景、真实人和虚拟物体的影像,投射给小朋友的ar显示设备中。

可拓展地,基于手势识别技术,除了手势传感器能徒手识别手势控制以外,还可以通过手柄控制、智慧手套、手表式imu传感器等控制器获取手部动作参数的空间值和反馈值。可拓展地,还可以kinect、xtionpro、realsense等体感传感器,获取人体骨架动作参数的空间值和反馈值。

进一步地,该教具互动系统可以实现“虚拟实训景”教学、混合现实的远程教学,有效打破实景实践瓶颈,解决城乡教育资源不均衡问题。

上述技术方案中,优选的的硬件条件要求包括:(1)nvidia独显小型pc(personalcomputer,个人计算机)机/sev服务器,支持4g/5g频段wifi路由器,和多台ar显示设备一体机(第一、第二视角至少2台,第三视角至少3台(教师控制端36有2台,其中一台作为教师自己使用,另一台用于获取虚实结合图像上传给系统));(2)pc机与路由器有线连接;(3)路由器与多台ar显示设备一体机无线连接。其中,pc机相当于服务端,充当系统中心的角色,承担内容展示调度的作用;一台ar显示设备一体机作为教师控制端36并配备操作手柄;其他ar显示设备一体机或者pad平板作为学生端同步观看由教师控制端36的由内容端播放的虚拟教学演示内容,支持互动。并且学生端有多人的,可以给每个学生端配备ar显示设备,例如ar眼镜,但并不要求小朋友在同一空间中,其中包括一云端,云端分别通信连接,或者通过网络设备分别通信连接至少一个ar显示设备。

进一步地,如果小朋友要相互感知,每个学生端也都配备2台ar显示设备,例如ar眼镜,其中一台用于使用者佩戴,另一台用于获取虚实图像上传给系统,系统收到所有图像,例如包括位置信息,其由深度摄像头获取,后,有距离感地投射给每台ar眼镜设备中,让所有人能感知其他人的存在,以及他们的行为。

可拓展地,在小朋友/学生端配备非ar眼镜设备,例如第三视角的网络摄像头,并带空间方位感知传感器设备,只获取真实人/物影像和空间位置,虚拟物可由系统在空间位置生成后,再投影给其他方。

进一步地,运用ar技术,实现知识具象化,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,能满足多维交互体验的实践教学需求。教师和小朋友都可以在pc机端完成3d内容制作并轻松发布,并且可以在手机端及时分享与交流。例如,可以戴上ar眼镜,在乐趣中完成课程学习、模拟实践和考试测评,以实现“虚拟实训景”教学、混合现实的远程教学,有效打破实景实践瓶颈,解决城乡教育资源不均衡问题。

上述技术方案中,作为较优的实施方式,教师控制端36包括:

一存储模块360,存储模块360用于预先存储课程学习视频、考试测评习题、游戏项目及教学资源;

一创建模块361,创建模块361用于根据课程学习视频、考试测评习题、游戏项目及教学资源,以创建教学课程、游戏项目及测试项目;

一管理模块362,管理模块362用于分别对教学课程、游戏项目及测试项目进行编辑、添加、删除及修改。

具体地,如图7所示,基于上述实施例一构建的虚拟环境内,该教具互动系统中添加混合现实的远程教学,在远程教学之前,ar显示设备包括的控制端,可以是老师控制端,预先存储课程学习视频、考试测评习题、游戏项目及教学资源,然后根据课程学习视频、考试测评习题、游戏项目及教学资源,以创建教学课程、游戏项目及测试项目,其次还分别对教学课程、游戏项目及测试项目进行编辑、添加、删除及修改。

进一步地,学生端的小朋友可以通过ar显示设备,例如ar眼镜体验虚拟环境并置身于虚拟环境内,可以完成学习、考核、评价的学习闭环。可以体验ar真人教学,体验者如同老师亲临授课,有效解决师资、场地、学习持续性问题,并且课程中可使用虚拟道具、视频等资源,便于学习者理解。

例如,教师控制端36设置教学课程,在虚拟环境内小朋友可以徒手点击进入该教学课程,在进入教学课程之后,小朋友可以徒手选择数字和确认以登录该教学课程,登录页面如图9所示,例如,登录页面可以设置为数字0-9,并且设置确认按钮与撤销按钮,且在登录的同时背景会出现“虚拟之间,触碰未来”“混合现实幼儿园”的字样,让小朋友更能够身临其境地感受虚拟教学环境。

当然对于登录密码可以预先设置,对于小朋友的认知来看,可以设置简单的数字0-9即可。

进一步地,当登录该教学课程时,会出现项目介绍、认识幼儿园、智慧课堂以及个人中心几个功能模块,例如功能模块包括项目介绍(progectintroduction)、认识幼儿园(knowkindergerten)、智慧课堂(wisdomclassroom)、个人中心(personalcenter),如图10所示,小朋友可以徒手选择具体地功能模块,其中项目介绍模块会呈列相关联于教育的游戏项目及测试项目等,但并不局限于这两种,认识幼儿园会呈现该虚拟环境内的幼儿园的相关图片及视频等,智慧课堂模块可以进行学习、模拟、考试三种课堂模式,例如,可以采用真人抠像的虚拟老师进行视频教学,个人中心模块包括与小朋友自己相关的学习、考试、作品及好友等等。

进一步地,当进入智慧课堂模块进行教学课程项目时,置身于虚拟环境内,可以采用真人抠像的虚拟老师对小朋友进行视频教学,如图5所示,具体实施方式如实施例二得知,在此不在赘述。

可拓展地,当进入智慧课堂模块进行游戏项目时,例如设置带计时的套娃游戏,小朋友置身于虚拟环境内,徒手体验“拾取”与“放置”游戏教具(套娃游戏),以测试小朋友的识别大小关系,游戏界面如图11所示,例如设置在1分钟之内进行倒计时,让小朋友对游戏中的大、小娃娃进行识别,图中已倒计时至55秒了。进一步地,从其表现形式上来吸引学习参与到教学中,提升孩子对事物的兴趣,从而以互动形式探查、研究更深层次的内容,全新的互动体验,可以全方位的让学生用研究看、耳朵听、动手做,用脑思考,真正实现了理论实践的教育理念。

可拓展地,当进入智慧课堂模块进行测试项目时,例如设置幼儿园测试环境多选测试项目,小朋友置身于虚拟环境内,在小朋友眼前出现黑板和黑板外的确定/放弃2个选择纽,在黑板上可以出现测试题,并提供abcd多个选择答案,测试项目界面如图12所示,测试项目可以设置为多选题,题目为幼儿园环境包括以下哪些环境,a选项为幼儿园物资环境,b选项为幼儿园精神环境,c选项为家庭环境,d选项为设置环境,小朋友可以通过手势识别器,识别小手的指定项目,触发确定按钮后,该测试系统会给出选择对错的评判,并告知正确的答案,进而完成相关模拟课堂。

进一步地,有效提升小朋友的趣味性、互动性,解决网络教学中常见的“视而不见”和开小差问题,当在课程结束时会出现“练习”功能,既强化知识点,又能及时明确的反馈学习情况。进而以适应性发展课程作为混合现实的教学的课程核心。

进一步地,围绕学前教育专业学生的实践需求,提升学生的实践能力。完成智能学前教育vr虚拟仿真应用组件设计,其中包括教学课件模型的创建、幼儿园仿真环境的组建和玩教具类设计,主要包括,五大领域的课件模型和元素的建设、幼儿园典型实践案例的逻辑分析及处理方式、虚拟仿真平台使用指导材料,最后对系统的场景交互进行详细的设计,完成程序和vr/ar模型的交互的开发过程,确定场景的命名规则。

可拓展地,智能学前教育虚拟仿真管理软件设计,包括管理用户、系统普通用户、学生用户和教师用户;系统功能模块又包括专业设置、课程设置、教学管理、实践管理、学生成绩管理、题库管理、教学资源管理等功能。

进一步地,小朋友可以进行教学环境互动、教师互动以及教具互动,直面师培痛点,利用科技化探索解决之道,解决了现有技术中,在培训过程与效果缺乏即时的回馈与考核测评,容易流于形式造成资源浪费,进而对小朋友的互动能力需要一个客观的激励评价体系,提高了小朋友的学习兴趣以及互动积极性。将vr/ar技术融入教育理念中,从其表现形式上来吸引学习参与到教学中,提升孩子对事物的兴趣,从而以互动形式探查、研究更深层次的内容。这又是一种融入增强现实技术后,用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让学生用研究看、耳朵听、动手做。用脑思考,真正实现了理论实践的教育理念。以《3-6岁儿童学习与发展指南》为指导,依托幼儿园学前儿童教育纲要,建设儿童教学vr/ar互动平台。

在一种较优的实施例中,作为实施例一中较优的方法的实施方式为:

步骤s10、ar显示设备根据真实环境的空间尺寸,提供用于显示覆盖于真实环境的真实地面、真实墙面和真实顶棚的不同教学环境相关内容选项的虚拟地面、虚拟墙面和虚拟顶棚,虚拟地面、虚拟墙面及虚拟顶棚组成一虚拟环境。

进一步地,如图16所示,步骤s103、根据真实环境建立与教学环境相关的虚拟环境,并将虚拟环境投射至ar显示设备中,并敷贴显示于真实环境的表面。

通过上述混合现实的教学环境互动方法的技术方案,如图13所示,用户即小朋友可以佩戴ar显示设备,例如ar显示设备为ar眼镜或ar头盔,可以识别真实环境的空间尺寸,例如近似方形空间的四壁以及顶面、地面,其中顶面和地面都是方形或长方形。

进一步地,如图16所示,首先将根据真实环境建立与教学环境相关的虚拟环境,并将虚拟环境投射至ar显示设备中,并敷贴显示于真实环境的表面,例如虚拟环境提供虚拟地面、虚拟墙面和虚拟顶棚。在小朋友装饰之前,系统预先提供的装饰素材,在虚拟环境内,小朋友选择虚拟墙面时的选择界面如图3所示,即可以徒手选择布置内容和确认,小朋友可以根据系统预先提供的装饰素材,给该虚拟环境内的虚拟墙面进行“贴图”装饰,营造出教学环境的互动场景,例如充满虚拟地面的大鲸鱼地毯,虚拟墙壁上贴附有各种不同的可爱动物的贴图,顶棚也可以设置,目前只提供很常规平面设计,如图4所示。

进一步地,小朋友可以在该虚拟环境内自由移动,贴在真实墙面、真实地面和真实顶棚的“贴图”则不会移动,结合ar技术创建虚拟教学环境,满足多维交互体验的实践教学需求,为小朋友提供一个虚拟教学环境,不受时间和空间的限制,并且能够提升小朋友对事物的兴趣,能够吸引小朋友能够学习和参与到教学中。

上述技术方案中,作为较优的实施方式,如图14所示,于步骤s10包括:

步骤s100、采集真实环境内的图像信息、距离信息及尺寸信息,并根据图像信息、距离信息及尺寸信息来识别用户与真实环境的实时相对位置状态。

具体地,如图14所示,该步骤可以获取到真实环境的真实地面、真实墙面和真实顶棚的图像信息,例如,该步骤可以采用鱼眼摄像头不间断的拍摄真实环境的图像信息,分析比较每一帧的图像信息的特征点,如果判断特征点向左移动,就可以推断为ar显示设备向右移动,如果判断特征点向右移动,就可以推断为ar显示设备可能向左移动,向上向下同理,如果判断特征点之间的距离越来越大,可以推断为ar显示设备向前移动,如果判断距离越来越小,可以推断为ar显示设备向后移动。

进一步地,该步骤也可以采用3d扫描仪,也可以选择激光雷达、毫米波雷达等传感器,也可以选用双鱼眼摄像头,通过双鱼眼摄像头能够获取超广视野,在双鱼眼摄像头之后安装的是一百万像素的单色传感器,有效提高了在低照度下捕捉影像的能力,工作时两个双鱼眼摄像头协同工作,以30fps速度扫描周边环境,通过三角测量原理计算ar显示设备与当前景物的距离,其原理与手机双摄像头拍摄虚化背景照片相同,但不同点在于两个双鱼眼摄像头的间距很大,精度更高,距离信息经处理后变换为空间位置信息,获取映射至软件系统应用里面的某个节点,例如,软件系统应用可以是unity软件,然后与单色传感器的数据进行融合,节点能随着ar显示设备的位置移动而移动,随着ar显示设备的转动而转动,但是在虚拟环境中节点以外的物体可以静止在原地,这样通过3d扫描仪与(双)鱼眼摄像头的配合使用,使得小朋友可以在虚拟环境中自由行走或自由移动,贴在真实墙面、地面和顶面的“贴图”则不会移动。

上述技术方案中,作为较优的实施方式,如图15所示,于步骤s10包括:

步骤s101、识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;

步骤s102、识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

具体地,如图15所示,该步骤可以获取ar显示设备的朝向信息、高度信息及空间位置信息,也可以获取到相对于ar显示设备的真实环境与周边相对的位置信息及相对距离。例如,采用鱼眼摄像头可以结合第一传感器模块11的imu(inertialmeasurementunit,惯性测量装置)传感器,其中imu传感器提供陀螺仪、重力、加速度、磁场仪四种传感器,通过特定的算法,就可以得到ar显示设备的旋转和相对位移,即能够感应设备的前、后、左、右、上、下、前、后的移动。

进一步地,可以采用角速度传感器识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息,角速度传感器的自由度总共有六个(6dof),分为在x,y,z轴位移和围绕x,y,z轴旋转,在任意一个自由度中,物体可以沿两个“方向”自由运动,例如,电梯限制在一个自由度中,但电梯能够在这个自由度中上下运动,同样,摩天轮限制在1个(旋转)自由度中,但这是旋转自由度,所以摩天轮能够朝相反的方向旋转,例如,主题公园,碰碰车总共有3个自由度(x、y和旋转z),它只能在3轴中的2条轴里平移,然后它只能以一种方式旋转,即2个平移、1个旋转总计为3自由度。

进一步地,无论多复杂,程序设定中的物体的任何可能性运动都可以通过6自由度的组合进行表达,例如在用球拍击或打网球的时候,球拍的复杂运动可以表示为平移和旋转的组合。

进一步地,采用陀螺仪识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息,即通过陀螺仪可以实现空间追踪或定位。或采用imu传感器识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息,即通过加速度计、陀螺仪和磁力计等传感器组合来进行识别测量,简单明了。

进一步地,在程序中,将挂载获得位移信息和旋转信息的物体放在虚拟环境中座标的原点,程序在启动的时候,ar显示设备的座标系和虚拟环境的座标系就是重合的,将挂载单色传感器的数据的物体绑定在代表ar显示设备的物体上,并偏移一段距离,即可识别为人手或者手持工具。

接下来,小朋友就可以从虚拟物存储库中拿出具体的3d虚拟物,在这个虚拟环境内摆放自己喜欢的3d虚拟的小桌子、小椅子、小书架等家具产品,构成小朋友喜欢的环境装饰,需要说明的是,这些家具在空间中的方向或朝向是可以调整的。

可拓展地,小朋友也可以从虚拟物存储库中拿出具体的3d虚拟物,在这个空间内摆放自己喜欢的虚拟的小摆设,例如卡通钟,自己的照片,其中照片内容需提前提供给系统,放置在指定目录下、大毛绒玩具等等。

进一步地,该教学环境互动系统结合ar技术创建虚拟教学环境,满足多维交互体验的实践教学需求,为小朋友提供一个虚拟教学环境,不受时间和空间的限制,并且能够提升小朋友对事物的兴趣,从而以互动形式探查、研究更深层次的内容,进一步地吸引小朋友能够学习和参与到教学中。

在一种较优的实施例中,作为实施例二中较优的方法的实施方式为:

步骤s20、ar显示设备根据真实教师的影像/图像,提供用于显示虚拟教师的影像/图像,用户通过使用ar显示设备与虚拟教师进行教学互动。

进一步地,如图20所示,步骤s204、根据真实教师建立虚拟教师,并将虚拟教师投射至ar显示设备中。

通过上述混合现实的教师互动方法的技术方案,如图17所示,基于上述实施例一对应的实施方式中构建的虚拟环境内,通过教师互动方法添加虚拟教师以及真实教具例如数字卡、汉字卡、救护车、警车、救火车、动物玩具模型等等与小朋友进行互动。其中,根据真实教师建立虚拟教师,并将虚拟教师投射至ar显示设备中。

进一步地,该教师互动方法融入ar技术添加虚拟教师,可以用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让小朋友用研究看、耳朵听、动手做,进一步地用脑思考,真正实现了理论实践的教育理念,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,真正实现“教与学”的双线并进和实时互动。

上述技术方案中,作为较优的实施方式,如图18所示,于步骤s20包括:

步骤s201、采集真实教师的影像/图像信息,并根据影像/图像信息来识别真实教师的实时状态。

具体地,如图18所示,该步骤可以获取真实教师的图像信息,例如,采用3d扫描仪或tof摄像头可以采集真实教师的影像/图像信息,并根据图像信息来识别真实教师的实时状态,即实时状态可以是空间中的行动、空间中的行走,手势和脸部表情、动嘴(说话)行为等。

进一步地,该步骤也可以获取ar显示设备的朝向信息、高度信息、空间位置信息,以及第二传感器模块21可以获取相对于ar显示设备的真实教师和/或虚拟教师的与虚拟人物的相对位置、相对距离等,该虚拟人物可以是虚拟教师,也可以是虚拟学生。例如,如图18所示,步骤s202、识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;步骤s203、识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。其中,步骤s202中采用角速度传感器,步骤s203中采用陀螺仪或imu传感器可以识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

上述技术方案中,作为较优的实施方式,如图21所示,于步骤s20包括:

步骤s205、识别用户执行的手势动作;

步骤s206、根据触发条件触发虚拟教师对真实教具的信息进行讲解。

具体地,如图21所示,该ar技术与手势识别技术是基于传感器、鱼眼摄像头、imu等传感器获取的三维参数,叠加入ar三维展示空间(坐标体系),以及叠加真实空间(地球坐标体系),三个空间精确叠加而形成的。

进一步地,小朋友可以拿起真实教具,头戴ar显示设备,其ar显示设备中的摄像头可以ai智能识别到是具体的教具,根据触发条件会触发虚拟教师对该教具进行知识讲解,播放演示相关视频等进行教学,其中触发条件提供手势动作或真实教具,如图6所示。

上述技术方案中,作为较优的实施方式,如图22所示,于步骤s20还包括:

步骤s207、采集用户发出的语音信息,并根据语音信息查找对应的反馈内容;

步骤s208、根据触发条件触发虚拟教师对真实教具和/或或虚拟教具的信息进行讲解。这里的虚拟教师是程序预先设定好的,只是根据触发条件,进行具体语音、动作、教授和讲解。

具体地,如图22所示,根据需要开通连接语音通话,可使任一发言者的声音同步至其它头戴的ar显示设备的耳麦中。即小朋友在非测试的环节中,可以就玩具进行提问,语音会被转化成文字,或者语音提问本身,通过ar显示设备中的通信芯片在网络中进行问题搜索,检索到的答案,通过虚拟教师的口中回答给小朋友听。

进一步地,该教师互动方法通过unity3d引擎发布成对应硬件使用平台例如提供安卓、ios、psp、等的应用程序,作为内容端,并设多台ar/vr头戴式ar显示设备,其中提供教师控制端36和学生端,头戴式ar显示设备实时显示同样的内容,其内容的视角、远近、播放(图形和声效)、暂停或互动等均由教师控制端36及教授佩戴的ar设备协同来完成。

进一步地,小朋友可以通过头戴ar显示设备就可以置身于虚拟教学环境之中,通过该小朋友的语音信息或手势信息,能够被系统所识别,系统会根据语音语义或行为手势结果,与虚拟教师或虚拟教具进行互动,触发虚拟人或物的声音和行为的反馈。

进一步地,通过融入ar技术添加虚拟教师,可以用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让小朋友用研究看、耳朵听、动手做,进一步地用脑思考,真正实现了理论实践的教育理念,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,真正实现“教与学”的双线并进和实时互动。

在一种较优的实施例中,作为实施例三中较优的方法的实施方式为:

步骤s30、ar显示设备根据真实教具,提供用于显示由真实教具触发的3d虚拟教具,用户通过使用ar显示设备与3d虚拟教具进行教学互动。

进一步地,如图26所示,于步骤s30还包括:

步骤s303、根据真实教具触发建立3d虚拟教具,并将3d虚拟教具投射至ar显示设备中;

步骤s304、根据用户的真实手模型触发建立虚拟手模型,并将虚拟手模型投射至ar显示设备中。

通过上述混合现实的教具互动方法的技术方案,如图23所示,基于上述实施例一对应的方法的实施方式构建的虚拟环境内,该方法中添加3d虚拟教具,例如恐龙模型、几何形状块、虚拟植物、虚拟地球(仪)如图8所示、太阳系模型等等与小朋友进行互动。其中,如图26所示,3d虚拟教具是由虚拟教具生成模块32根据真实教具触发建立产生,并将3d虚拟教具投射至ar显示设备中。

进一步地,该方法不仅可以实现“虚拟实训景”教学,还可以实现混合现实的远程教学,强大的优质资源和多维交互体验技术,有效打破实景实践瓶颈,能解决城乡教育资源不均衡问题。

上述技术方案中,作为较优的实施方式,如图24所示,于步骤s30包括:

步骤s300、采集真实教具的图像信息,并根据图像信息来识别真实教具的实时状态。

进一步地,如图25所示,于步骤s30还包括:

步骤s301、识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;

步骤s302、识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

具体地,结合图24、25所示,该方法中可以采用3d扫描仪或tof摄像头可以采集真实教具的图像信息,并根据图像信息来识别真实教具的朝向状态、高度状态、空间位置状态等。

进一步地,该方法可以获取ar显示设备的状态信息,以及可以获取相对于ar显示设备的真实教具和/或3d虚拟教具的与周边的相对位置、相对距离等。例如,可以采用角速度传感器识别ar显示设备在真实环境内的旋转角度,并根据旋转角度计算得到ar显示设备在虚拟环境内的位置信息;采用陀螺仪或imu传感器识别ar显示设备在真实环境内的移动距离,并根据移动距离计算得到ar显示设备在虚拟环境内的位置信息。

上述技术方案中,作为较优的实施方式,如图27所示,于步骤s30包括:

步骤s305、感应真实手模型的手势信息,并根据手势信息判断虚拟手模型的执行动作。

具体地,如图27所示,基于该教具互动方法结合红外感应器例如红外摄像头,来实现手势抓取虚拟物体的功能。首先,利用unity3d引擎搭建3d虚拟环境,在该虚拟环境内创建3d虚拟教师、虚拟同学以及虚拟玩具,与此同时,还需要结合不同教学环境相关的内容选项对教学环境进行布置,该以上内容均可根据真实人或物进行3d建模。

进一步地,利用六自由度的sdk(softwaredevelopmentkit,软件开发工具包),例如可以是软件工程师为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合。

进一步地,通过ar显示设备上的陀螺仪可以定位数据,计算ar显示设备在虚拟环境内的位置,同时映射到unity3d创建的虚拟环境中,从而实现能够在3d空间中旋转以及行走的6d自由度的效果。

进一步地,利用手势传感器提供的识别手势(空间参数)的sdk,在虚拟环境中加入手模型,其提供手部和手臂,其这里需要传感器的驱动以及硬件设备支持。传感器能够把驱动检测到的手势信息参数传递到unity3d引擎,并映射这些信息到手模型上,即可实现将真实的手模拟成虚拟手模型,并呈现到虚拟的3d虚拟环境中。

进一步地,在unity3d引擎中将手势的信息进行分析计算,得到一些特定的手势形状,例如“捏或握”,手势传感器分析得到“捏或握”动作的开始和结束。即开始和结束时依照食指和拇指指尖的距离进行设定,当两者之间的距离小于预设的阈值时,即为进入“捏或握”的状态,大于预设的阈值时,即为离开“捏或握”的状态。

进一步地,在能够识别“捏或握”动作之后,在其中加入交互,例如“捏或握”住一个虚拟物体,该原理是在虚拟手指捏或握住的位置创建一个可以用于触发的小球,小球的角度会随虚拟手的旋转而转动,当虚拟手指捏或握住虚拟物体时,即该虚拟物体的触发器与小球接触或相交,一般虚拟物体的触发器被设定在物体的表面上,然后将物体与小球的位置和角度进行锁定,相当于将物体“挂”在小球上,这样虚拟手模型移动和旋转也会带着虚拟物体移动和旋转,从而实现抓取的功能。并进一步做指向判断,即判断小朋友的食指指尖与虚拟物的空间位置关系,当判断指尖接触或者指尖指入,都算是选中。进一步地,该教具互动方法利用强大的优质资源和多维交互体验技术,有效打破实景实践瓶颈,能解决城乡教育资源不均衡问题,真正实现教育的精准扶贫。

上述技术方案中,作为较优的实施方式,如图28所示,于步骤s30还包括:

步骤s306、识别真实教师对3d虚拟教具执行的手势动作,并将手势动作同步到其他ar显示设备中;

步骤s307、采集真实教师讲解的语音信息,并将语音信息同步到其他ar显示设备中。

具体地,如图28所示,小朋友通过头戴ar显示设备可以置身于虚拟环境之中,该小朋友的语音信息或手势信息,能够被系统所识别,并同步至系统,系统会根据语音语义或行为手势结果,与虚拟教师或虚拟教具进行互动,触发虚拟人或物的声音和行为的反馈。

上述技术方案中,作为较优的实施方式,如图29所示,于步骤s30还包括:

步骤s308、ar显示设备预先存储课程学习视频、考试测评习题、游戏项目及教学资源;

步骤s309、ar显示设备根据课程学习视频、考试测评习题、游戏项目及教学资源,以创建教学课程、游戏项目及测试项目;

步骤s310、ar显示设备分别对教学课程、游戏项目及测试项目进行编辑、添加、删除及修改。

具体地,如图29所示,该教具交互方法中提供至少一个教师控制端36与至少一个学生控制端37,当地或者远程的真实教师通过教师控制端36连接ar显示设备,并与每个学生控制端37进行互动。远程连接系真实教师,即远程有接入系统,远程环境下有兼容该ar显示设备的显示屏,结合虚拟的3d教具,例如,恐龙模型、几何形状块、虚拟植物、虚拟地球(仪)和卫星(如图8所示)、太阳系模型等等与本地小朋友进行互动。

进一步地,基于手势识别技术,系统可以“观察到”小朋友徒手捏到的虚拟物体,远程的真实教师可以借助ar显示设备投影识别到小朋友视野(第一视角)中的真实背景和虚拟物体,远程的真实教师就可以向小朋友讲解该虚拟物体,ar显示设备可以复制同样的虚拟物体在教师控制端36,真实教师也可以借助ar显示设备,其中含手势识别器“拿着”虚拟物体进行讲解;同样地,系统可以将教师端(第三视角下)的真实背景、真实人和虚拟物体的影像,投射给小朋友的ar显示设备中。

可拓展地,基于手势识别技术,除了手势传感器能徒手识别手势控制以外,还可以通过手柄控制、智慧手套、手表式imu传感器等控制器获取手部动作参数的空间值和反馈值。可拓展地,还可以kinect、xtionpro、realsense等体感传感器,获取人体骨架动作参数的空间值和反馈值。

进一步地,该教具互动系统可以实现“虚拟实训景”教学、混合现实的远程教学,有效打破实景实践瓶颈,解决城乡教育资源不均衡问题。

上述技术方案中,优选的的硬件条件要求提供:(1)nvidia独显小型pc(personalcomputer,个人计算机)机/sev服务器,支持5g频段wifi路由器,和多台ar显示设备一体机(第一、第二视角至少2台,第三视角至少3台(教师控制端36有2台,其中一台作为教师自己使用,另一台用于获取虚实结合图像上传给系统));(2)pc机与路由器有线连接;(3)路由器与多台ar显示设备一体机无线连接。其中,pc机相当于服务端,充当系统中心的角色,承担内容展示调度的作用;一台ar显示设备一体机作为教师控制端36并配备操作手柄;其他ar显示设备一体机作为学生端同步观看由教师控制端36的由内容端播放的虚拟教学演示内容,支持互动。并且学生端有多人的,可以给每个学生端配备ar显示设备,例如ar眼镜,但并不要求小朋友在同一空间中,其中提供一云端,云端分别通信连接,或者通过网络设备分别通信连接至少一个ar显示设备。

进一步地,如果小朋友要相互感知,每个学生端也可配备2台ar显示设备,例如ar眼镜,其中一台用于使用者佩戴,另一台用于获取虚实图像上传给系统,系统收到所有图像,例如提供位置信息,其由深度摄像头获取,后,有距离感地投射给每台ar眼镜设备中,让所有人能感知其他人的存在,以及他们的行为。

可拓展地,在小朋友/学生端配备非ar眼镜设备,例如第三视角的网络

进一步地,运用ar技术,实现知识具象化,突破传统教育的时间、空间限制,集教学、管理、学习、娱乐、分享、互动交流于一体,能满足多维交互体验的实践教学需求。教师和小朋友都可以在pc机端完成3d内容制作并轻松发布,并且可以在手机端及时分享与交流。例如,可以戴上ar眼镜,在乐趣中完成课程学习、模拟实践和考试测评,以实现“虚拟实训景”教学、混合现实的远程教学,有效打破实景实践瓶颈,解决城乡教育资源不均衡问题。

进一步地,如图29所示,基于上述实施例一构建的虚拟环境内,该教具互动系统中添加混合现实的远程教学,在远程教学之前,ar显示设备提供控制端,可以是老师控制端,预先存储课程学习视频、考试测评习题、游戏项目及教学资源,然后根据课程学习视频、考试测评习题、游戏项目及教学资源,以创建教学课程、游戏项目及测试项目,其次还分别对教学课程、游戏项目及测试项目进行编辑、添加、删除及修改。

进一步地,学生端的小朋友可以通过ar显示设备,例如ar眼镜体验虚拟环境并置身于虚拟环境内,可以完成学习、考核、评价的学习闭环。可以体验ar真人教学,体验者如同老师亲临授课,有效解决师资、场地、学习持续性问题,并且课程中可使用虚拟道具、视频等资源,便于学习者理解。

例如,教师控制端36设置教学课程,可以将教学课程的开机页面进行自定义设置,开机页面如图8所示,在虚拟环境内小朋友可以徒手点击进入该教学课程,在进入教学课程之后,小朋友可以徒手选择数字和确认以登录该教学课程,登录页面如图9所示,当前对于登录密码可以预先设置,对于小朋友的认知来看,可以设置简单的数字0-9即可。

进一步地,当登录该教学课程时,会出现项目介绍、认识幼儿园、智慧课堂以及个人中心几个功能模块,如图10所示,小朋友可以徒手选择具体功能模块,其中项目介绍模块会呈列相关联于教育的游戏项目及测试项目等,但并不局限于这两种,认识幼儿园会呈现该虚拟环境内的幼儿园的相关图片及视频等,智慧课堂模块可以进行学习、模拟、考试三种课堂模式,例如,可以采用真人抠像的虚拟老师进行视频教学,个人中心模块提供与小朋友自己相关的学习、考试、作品及好友等等。

进一步地,当进入智慧课堂模块进行教学课程项目时,置身于虚拟环境内,可以采用真人抠像的虚拟老师对小朋友进行视频教学,如图5所示,具体实施方式如实施例二得知,在此不在赘述。

可拓展地,当进入智慧课堂模块进行游戏项目时,例如设置带计时的套娃游戏,小朋友置身于虚拟环境内,徒手体验“拾取”与“放置”游戏教具,以测试小朋友的识别大小关系,游戏界面如图11所示。进一步地,从其表现形式上来吸引学习参与到教学中,提升孩子对事物的兴趣,从而以互动形式探查、研究更深层次的内容,全新的互动体验,可以全方位的让学生用研究看、耳朵听、动手做,用脑思考,真正实现了理论实践的教育理念。

可拓展地,当进入智慧课堂模块进行测试项目时,例如设置幼儿园测试环境多选测试项目,小朋友置身于虚拟环境内,在小朋友眼前出现黑板和黑板外的确定/放弃2个选择纽,在黑板上可以出现测试题,并提供abcd多个选择答案,测试项目界面如图12所示,小朋友可以通过手势识别器,识别小手的指定项目,触发确定按钮后,该测试系统会给出选择对错的评判,并告知正确的答案,进而完成相关模拟课堂。

进一步地,有效提升小朋友的趣味性、互动性,解决网络教学中常见的“视而不见”和开小差问题,当在课程结束时会出现“练习”功能,既强化知识点,又能及时明确的反馈学习情况。进而以适应性发展课程作为混合现实的教学的课程核心。

进一步地,围绕学前教育专业学生的实践需求,提升学生的实践能力。完成智能学前教育vr虚拟仿真应用组件设计,其中提供教学课件模型的创建、幼儿园仿真环境的组建和玩教具类设计,主要提供,五大领域的课件模型和元素的建设、幼儿园典型实践案例的逻辑分析及处理方式、虚拟仿真平台使用指导材料,最后对系统的场景交互进行详细的设计,完成程序和vr/ar模型的交互的开发过程,确定场景的命名规则。

可拓展地,智能学前教育虚拟仿真管理软件设计,提供管理用户、系统普通用户、学生用户和教师用户;系统功能模块又提供专业设置、课程设置、教学管理、实践管理、学生成绩管理、题库管理、教学资源管理等功能。

进一步地,小朋友可以进行教学环境互动、教师互动以及教具互动,直面师培痛点,利用科技化探索解决之道,解决了现有技术中,在培训过程与效果缺乏即时的回馈与考核测评,容易流于形式造成资源浪费,进而对小朋友的互动能力需要一个客观的激励评价体系,提高了小朋友的学习兴趣以及互动积极性。将vr/ar技术融入教育理念中,从其表现形式上来吸引学习参与到教学中,提升孩子对事物的兴趣,从而以互动形式探查、研究更深层次的内容。这又是一种融入增强现实技术后,用图片、视频、动画等多种方式表现教学内容,更加直观易懂,全新的互动体验,可以全方位的让学生用研究看、耳朵听、动手做。用脑思考,真正实现了理论实践的教育理念。以《3-6岁儿童学习与发展指南》为指导,依托幼儿园学前儿童教育纲要,建设儿童教学vr/ar互动平台。

以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1