一种三维动态情景教学系统及方法与流程

文档序号:12122053阅读:316来源:国知局
一种三维动态情景教学系统及方法与流程

本发明涉及一种教学系统,且具体地涉及一种能够根据用户需求自行设计场景并能够与场景互动的三维动态情景教学系统及方法。



背景技术:

在教学管理中,针对儿童的认知教育,传统的教育方法主要利用图书、挂图、卡片等方式引起学生的注意力,引导儿童认识各种事物,加强学生的记忆力,但这种方法比较呆板,对于注意力不集中的孩子,很容易疲倦、厌倦,缺少视觉冲击和愉悦体验,不能很好地激发儿童的学习兴趣。为了吸引儿童的学习兴趣,激发儿童的学习热情,如果要引入一种能够使儿童融入其中,乐在其中的教学方式,通常三维技术最能够引起儿童的注意力,但是如果购置纯硬件的三维虚拟装置,无意是一种巨资,比如市场上的“转洞洞”、“骑马”、“蹦蹦床”等这些硬件设施不仅娱乐项目单一,多种硬件设施必然造成场地、资源的浪费,一种硬件仅能实现一种项目,不仅价格高,还造成大量的场地资源的浪费。



技术实现要素:

针对上述技术的不足,本发明公开一种三维动态情景教学系统及方法,能够有效地提高了儿童认知能力,提高儿童学习记忆力,使其在快乐的玩耍氛围中愉快地接收知识,克服了传统教学存在的内容单一、互动性差的现状,能够

引起儿童浓厚的兴趣,就能够使儿童在快乐、愉悦的游戏中获得知识,能够引导孩子健康的成长、学习。

本发明采用以下技术方案:

一种三维动态情景教学系统,包括计算机系统、多媒体显示系统、立体视觉装置、交互装置、学生主机、视频图像采集系统、视频图像处理单元、视频图像制作系统和存储单元,所述计算机系统通过所述交互装置与所述学生主机连接通讯,所述视频图像采集系统与所述视频图像处理单元连接,所述视频图像处理单元与所述视频图像制作系统连接,所述视频图像制作系统与所述存储单元连接,所述存储单元集成于所述计算机系统中,其中所述交互装置为一个或多个,且并列与计算机系统连接,所述学生主机为一台或多台分别对应连接在交互装置上。

进一步的是,所述交互装置为键盘、鼠标、数据头盔和数据手套,实现互动功能。

进一步的是,所述视频图像采集系统包括图像采集单元、与所述图像采集单元连接解码输入模块、与所述解码输入模块连接的解码模块、与所述解码模块连接的解码输出模块、与所述解码输出模块连接的数据传输单元;其中,所述解码输入模块为解码输入双缓冲模块,所述解码输出模块为解码输出双缓冲模块,所述图像采集单元包括视频摄像设备,所述数据传输单元包括TCP/IP通讯协议集成电路。

进一步的是,所述视频图像处理单元包括基于ARM单片机的处理器,进行图像运算和处理。

进一步的是,所述视频图像制作系统为基于3D MAX、视频采集器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、CAD或CAM的操作工具。

进一步的是,所述多媒体显示系统包括音频单元、与所述音频单元连接的视频单元和输入输出设备。

进一步的是,所述立体视觉装置可以为3D显示装置或3D眼镜。

另一方面,本发明提出一种三维动态情景教学的方法,包括以下步骤:

(1)利用视频图像采集系统对教室内的学生或道具进行视频或图像信息采集;

(2)将采集到的信息通过视频图像处理单元进行预处理;包括以下步骤:

(21)初始化视频结构;

(22)开启定时器后抓取图像帧;

(23)转化视频格式;

(24)将视频图像数据显示在QT/Qtopia图形界面。

(3)采用视频图像制作系统根据预处理后的信息制作课件或游戏项目;

(4)将制作好的课件或游戏项目存储到存储单元中;

(5)根据用户输入命令,判断是否进行多媒体显示;

(51)如果需要进行多媒体显示,启动计算机系统,使课件或游戏项目中的视频文件通过多媒体显示装置显示;

(52)如果不需要进行多媒体显示,则启动交互装置,连接学生主机,通过通讯协议与计算机系统通讯;

(53)学习者通过交互装置与课件中的教学内容或游戏项目中的游戏内容互动。

其中,在本发明中,所述步骤(3)中制作课件或游戏项目的方法包括步骤:

(31)采用虚拟合成技术将视频图像采集系统采集到人物或道具合成到现有的课件或游戏项目材料中,以实现现实人物或道具与虚拟环境的逼真结合;

(32)采用程序VRML创建虚拟现实场景,使学习者与虚拟场景中的事物互动;

(33)制作PPT、动画、word、多媒体播放的音频、视频材料和显示材料文件;

其中所述步骤(31)包括以下步骤:

(311)利用3D MAX、视频剪辑器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、CAD或CAM操作工具对视频图像采集系统采集的视频或图像信息进行剪辑处理;

(312)将剪辑后的视频或图像数据存储到存储单元的数据库中;

(313)根据用户需要从数据库中选择需要的课件或游戏项目材料,以及视频或图像数据;

(314)将视频或图像数据合成到课件或游戏项目材料中;

(315)根据活动环境在存储单元中配置并调取相应的音乐或声音;

其中所述步骤(32)采用程序VRML创建虚拟现实场景的步骤包括:

(321)学习者通过交互装置在VRML的工作界面中输入设计用语;

(322)根据设计用语选择VRML虚拟场景或图片;

(323)在存储单元中调用场景数据,采用虚拟漫游算法设计场景;

(324)对设计的场景进行渲染,调整设计结果。

本发明有益的效果是:

本发明利用虚拟合成技术,可将人物虚拟到任意空间内,并在虚拟的空间内进行活动,用此技术可实现老师和学生在固定场所下模拟出丰富的场景下的教学和实践,老师和学生可以在计算机模拟出的场景下进行角色扮演,做到身临其境的直观感受,将现实生活中的场景和未知世界进行虚拟模拟,解决单纯书本学习的枯燥与乏味,增强学生的直观体验感受,提高学习趣味,加深学习记忆。由于是计算机的虚拟技术,场景规模可以任意大,只要学习有需求就可以随时添加,成本低廉。

除此还可以基于3D MAX、视频剪辑器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、CAD或CAM的操作工具对视频编辑、图像设计等进行互动性游戏制作、课件制作技术,制作后放入数据库备用。

采用VRML创建虚拟现实场景以突出教学中的难点和重点,能够与虚拟世界中的实体进行互动,利用虚拟现实建模语言,不仅能够模拟现实世界,而且还可以模拟现实中难以实现和观察到的过程、事物和现象。其显示的图像为动态和三维的,加上一定的交互性操作和实验,能够激发起学习者的兴趣,有利于提高学习者的理解、分析、创造能力,加深学习者的注意力。

本发明对教学情景、教学实验、技能训练等进行虚拟,利用虚拟现实场景交互性、沉浸性、多感知性和可操作性等优势来表现教学内容,解决教学中的重点、难点问题,提高学生学习积极性。

附图说明

图1为本发明一种三维动态情景教学系统及方法的装置示意图;

图2为本发明一种三维动态情景教学系统及方法的视频采集单元的结构示意图;

图3为本发明一种三维动态情景教学系统及方法的方法示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本实施例中,如图1所示,一种三维动态情景教学系统,包括计算机系统、多媒体显示系统、立体视觉装置、交互装置、学生主机、视频图像采集系统、视频图像处理单元、视频图像制作系统和存储单元,所述计算机系统通过所述交互装置与所述学生主机连接通讯,所述视频图像采集系统与所述视频图像处理单元连接,所述视频图像处理单元与所述视频图像制作系统连接,所述视频图像制作系统与所述存储单元连接,所述存储单元集成于所述计算机系统中,其中所述交互装置为一个或多个且并列与计算机系统连接,所述学生主机为一台或多台分别对应连接在交互装置上。

作为上述实施例的优化方案,所述交互装置为键盘、鼠标、数据头盔和数据手套。

在本发明中,人机交互装置利用键盘、鼠标与虚拟学习环境或游戏环境中物体进行互动,也可以使用数据头盔、数据手套等传感设备进行交互,计算机能够根据学习者的头、手、语言、眼等身体的运动来调整系统呈现出的图像和声音。学习者也可以通过自己身体运动或者手势运动,通过自身的运动与虚拟环境中的对象进行互动。

在本发明中,数据头盔为头戴式头盔,也可以为头戴式头盔显示器、舱型模拟器、投影虚拟等虚拟显示设备。这些设备可以使学习者与真实世界短暂地各隔绝,因而刺激学习者的感官的各种信息都来源于虚拟境界,具有很强的融入感。

作为上述实施例的优化方案,所述视频图像采集系统包括图像采集单元、与所述图像采集单元连接解码输入模块、与所述解码输入模块连接的解码模块、与所述解码模块连接的解码输出模块、与所述解码输出模块连接的数据传输单元;其中,所述解码输入模块为解码输入双缓冲模块,所述解码输出模块为解码输出双缓冲模块,所述图像采集单元包括视频摄像设备,所述数据传输单元包括TCP/IP通讯协议集成电路。

优选地,所述图像采集单元为视频摄像设备,其中所述视频摄像设备可以为摄像分辨率在1920×1080@25i的高清摄像机。。

在本发明中,视频摄像设备使用摄像分辨率在1920×1080@25i的高清摄像机,视频信号输出方式采用HDMI或者HD-SDI。

计算机服务器配置为Z87芯片组主板,英特尔 i7-4790 CPU,8GB DDR3 1333MHZ内存,GTX960芯片组显卡,120SSD+2TB SATA硬盘,采集分辨率在1920×1080@25i的高清采集卡机,视频信号采集方式为HDMI或者HD-SDI,音频信号采集方式为RCA。

在本发明中,由高性能单片机C8051F330通过I2C(Inter-Integrated Circuit)接口对图像传感器采集内部寄存器进行读写,实现对图像采集、数字处理等过程的控制。数据传输处理部分以一块FPGA(Field-Programmable Gate Array)芯片为核心,在内部通过以Verilog硬件描述语言和IP软核模块相结合的逻辑设计模式完成对一行视频图像的分帧、打包然后通过千兆MAC逻辑模块将数据封装成MAC(Media Access Control)帧传出送入PHY芯片。数据包通过PHY后以千兆以太网或光纤进行远程传输。

作为上述实施例的优化方案,所述视频图像处理单元包括基于ARM单片机的处理器。。在本发明中,图像处理单元采用图像处理软件将现场中拍摄的人物图像单独地抠出,然后将抠出人物图像或者道具与数据库中的虚拟场景文件虚拟合成,实现现实人物以及道具在虚拟场景内的活动和变化。在进行这些活动之前,对视频图像先进行预处理。

图像处理一般指数字图像处理。数字图像是指用数字摄像机、扫描仪等设备经过采样和数字化得到的一个大的二维数组,该数组的元素称为像素,其值为一整数,称为灰度值。图像处理技术的主要内容包括图像压缩,增强和复原,匹配、描述和识别3个部分。

在进行图像处理之前先对图像预处理分析,根据目的的不同,图像预处理可分为对采集图像进行清晰化处理,对图像进行识别前的预处理,以及对图像进行压缩前的预处理等。其中,对采集图像进行清晰化处理主要包括对CMOS或CCD图像传感器感光单元的不一致进行后续纠正,对实际环境与传感器采集的图像进行差异补偿(如背光),以及对采集到的原始图像进行去噪处理等。虽然这种预处理算法本身的难度不大,但随着实时性需求的普及,尤其是在像素较大时,这种算法还是对DSP的处理能力提出了很高的要求。

而对图像进行识别前的预处理则目的性很强,可能需要破坏原来的像素和分布,以便后续进行特征提取。这种预处理算法的难度视识别场合的不同而不同。要综合后面的识别算法部分,选择适当的DSP,图像压缩前的预处理主要是指将YUV422变为YUV420、将RGB变为YUV等。这类处理往往有实时性要求,如果采用软件实现,会对处理性能有较高的要求;如果采用硬件实现,则虽然在处理性能上有保证,但硬件成本会有所上升。

作为上述实施例的优化方案,,所述视频图像制作系统基于3D MAX、视频采集器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、CAD或CAM的操作工具。

在本发明中,三维工具软件采用3D MAX;

视频合成软件为:AFTER、EFFECTS、PREMIERE

平面设计软件:PHOTOSHOP

机械制图软件:CAD或CAM等。

作为上述实施例的优化方案,,所述多媒体显示系统包括音频单元、与所述音频单元连接的视频单元和输入输出设备。

在本发明中,多媒体显示系统广泛支持各种流行的多媒体格式节目播放:MPEG音视频文件播放、DVD音视频文件播放、Microsoft Windows音频文件及MP3音频文件播放、现场摄像枪视频捕获窗口回放、实时电视接收窗口回放、Internet网页显示及Internet实时网络音视频广播、文本的渐进渐出及移动播放、图片文件的各种动画效果播放、同时系统提供多种形式的时钟显示等等。

在本发明中,多媒体显示系统支持多种终端显示设备,系统能够兼容多种终端信息显示设备,如:电视墙幕(TV Wall)、等离子显示屏(Plasma display),LCD显示屏(LCD Display,CRT电视机(CRT TV),LED室内外显示屏(LED Display),多媒体投影仪(Video Projector)等。

在本发明中,多媒体显示系统支持多种音频部分,音频部分主要完成音频信号的A/D和D/A转换及数字音频的压缩、解压缩及播放等功能。主要包括声卡、外接音箱、话筒、耳麦、MIDI设备等。

在本发明中,多媒体显示系统支持多种视频部分,视频部分负责多媒体计算机图像和视频信息的数字化摄取和回放。主要包括视频压缩卡、电视卡、加速显示卡等。

视频卡主要完成视频信号的A/D和D/A转换及数字视频的压缩和解压缩功能。其信号源可以是摄象头、录放像机、影碟机等。电视卡(盒):完成普通电视信号的接收、解调、A/D转换及与主机之间的通信,从而可在计算机上观看电视节目,同时还可以以MPEG压缩格式录制电视节目。加速显示卡:主要完成视频的流畅输出,是Intel公司为解决PCI总线带宽不足的问题而提出的新一代图形加速端口。

在本发明中,基本输入/输出设备包括视频/音频输入设备,具体地包括摄像机、录像机、影碟机、扫描仪、话筒、录音机、激光唱盘和MIDI合成器等;视频/音频输出设备包括显示器、电视机、投影电视、扬声器、立体声耳机等;人机交互设备包括键盘、鼠标、触摸屏和光笔等;数据存储设备包括CD-ROM、磁盘、打印机、可擦写光盘等。

优选地,所述立体视觉装置可以为3D显示装置或3D眼镜。

一种三维动态情景教学的方法,包括以下步骤:

(1)利用视频图像采集系统对教室内的学生或道具进行视频或图像信息采集;

(2)将采集到的信息通过视频图像处理单元进行预处理;

预处理过程包括以下步骤:

(21)初始化视频结构;

(22)开启定时器后抓取图像帧;

(23)转化视频格式;

(24)将视频图像数据显示在QT/Qtopia图形界面。

进一步地,在本发明中主要包括图像的采集、压缩处理、传输或存储、解压缩。常用的预处理的方法有限带滤波和降采样、噪声去除、图像增强等。视频图像处理步骤,其过程主要由四步组成。

1初始化视频结构

CvCapture*capture=0;

capture=cvCaptureFromCAM(-1);

cvSetCaptureProperty

(capture,CV_CAP_PROP_frame_WIDTH,320);

cvSetCaptureProperty

(capture,CV_CAP_PROP_FRAME_HEIGHT,240);

在OpenCV应用程序中都要定义一个CvCapture类型的指针变量capture。CvCapture类是视频获取结构,它没有公共接口,各类图像数据存储位置的头地址都可以赋值给指针变量capture。在capture指针被赋值之后,可以作为其他图像处理函数的参数使用,完成各种图像处理功能。

OpenCV库中用CvCapture*cvCaptureFromCAM(int index)函数对摄像头分配视频图像数据流和初始化CvCapture结构。函数参数index为摄像头索引值。如果系统只有一个摄像头或者使用哪个摄像头都无所谓,则index的值为-1。

对视频数据结构capture设置参数。用到的OpenCV的库函数为int cvSetCaptureProperty。参数capture指定哪个视频获取结构需要设置参数;property_id为属性标识符,由几个固定值组成,用来决定设置哪个参数。

2开启定时器后抓取图像帧

关键代码:

QTimer CameraTimer->start(50,false);

int cvGrabFrame(capture);

IplImage*frame=cvRetrieveFrame(capture);

如果视频结构初始化成功,则开启由QT库提供的QTimer定时器。代码表示为:CameraTimer->start(50,false)。参数“50”表示QT定时器每隔50ms触发一次。

该槽函数抓取一帧图像的方法为:首先调用OpenCV库函数int cvGrabFrame(CvCapture*capture);从摄像头实时采集的视频流中快速抓取一帧图像数据,并且把这帧图像数据存入ARM板的缓存中,这帧图像数据对于用户是不可见的。采用这种机制,是因为cvGrabFrame()可以把一帧图像数据以最快的速度存入缓存中[1]。

接下来,调用OpenCV库函数cvRetrieveFrame()。这个函数把刚刚通过cvGrabFrame()抓取的一帧图像数据从内部缓存重新读取出来。具体代码为:IplImage*frame=cvRetrieveFrame(capture)。事实上在调用这个函数后,OpenCV内部会完成多步复杂的图像处理的工作。

3视频格式的转化

关键代码:

for(int y=0;y<height;y++)

{ for(int x=0;x<width;x++)

{ for(int i=0;i<3;i++)

{*dst++=*frame->imageData++;}

*dst++=0;}}

由于cvRetrieveFrame()重新读取到的一帧图像数据是IplImage类型,IplImage类型是24位真彩的三通道BGR(BGR24),而QT库内与图像处理与显示相关的函数只支持对1bit、8bit或者32bit的位图进行处理。因此为了使IplImage类型帧图像能够在QT/Qtopia图像界面中显示,又不降低视频图像质量,需要通过程序将24位(BRG24)帧图像转化为32位(BRG32)帧图像。

BGR32每一个像素点除了拥有与BGR24相同的红绿蓝三种颜色,每种颜色8bit外,要还在这三种颜色共24bit的数据后面添加一组长度为8bit的0数据。因此,图像格式转化的方法应该在原始的24位图像数据中每隔三个字节加入一个字节的0。下列代码为BGR24->BGR32图像中一个点的转化程序,其中frame->imageData为原始图像的指针,dst为转化后图像的指针。

for(int i=0;i<3;i++)

{*dst++=*frame->imageData++;}

*dst++=0;

4将视频图像数据显示在QT/Qtopia图形界面

关键代码:

QImage image=QImage((uchar*)image32,frame->width,

frame->height,32,NULL,0,QImage::LittleEndian);

QPainter display(picCamera);

display.drawImage(0,0,image);

首先调用QImage构造函数把上一步转换好的32位(BGR32)图像数据初始化为QT图像数据格式;然后调用QT的低水平绘制类QPainter的构造函数对主窗口的显示器组建初始化;初始化结束后将调用QPainter类的drawImage成员函数,把通过QImage类转换过的图像数据image绘制在主窗体的显示器中,代码为QPainter.drawImage(0,0,image)。

ARM平台的手持移动监控与显示终端设备已经广泛应用于社会的各个领域。OpenCV图像处理库以其开源性、高效性、灵活性帮助开发者大幅度地缩减开发周期。ARM-Linux QT/Qtopia与其他ARM端的图像界面操作系统相比较有免费、移植性好、内核精简、更加稳定的特点。本设计以OpenCV图像处理库为核心,在ARM Linux QT/Qtopia图形界面操作系统下实现摄像头显示的应用程序,有非常好的实用性,可以广泛应用于各类ARM终端设备中。

(3)采用视频图像制作系统根据预处理后的信息制作课件或游戏项目。

(31)采用虚拟合成技术将视频图像采集系统采集到人物或道具合成到现有的

课件或游戏项目材料中,以实现现实人物或道具与虚拟环境的逼真结合;

其中所述步骤(31)包括以下步骤:

(311)利用3D MAX、视频剪辑器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、

CAD或CAM操作工具对视频图像采集系统采集的视频或图像信息进行剪辑处理;

(312)将剪辑后的视频或图像数据存储到存储单元的数据库中;

(313)根据用户需要从数据库中选择需要的课件或游戏项目材料,以及视频或

图像数据;

(314)将视频或图像数据合成到课件或游戏项目材料中;

(315)根据活动环境在存储单元中配置并调取相应的音乐或声音。

在该步骤中,利用3DMAX制作出场景、待着装人物、可选服式,然后利用VRML语言进行位置、动作、空间背景、空间视点、传感器等设置,生成将全景场景以及服式搭配交互性完美结合的教学软件,供学生进行虚拟探索。

通过软件制作各种各样的游戏或学习资料,学习者可以在这些虚拟现实境界中自由活动,数据头盔能够实现完全的侵入感,当然也可以采用廉价的三维眼镜、安装在计算机屏幕上的立体观察器、液晶显示光阀眼镜等可以增强立体效果。交互装置可以是但不局限于鼠标、键盘、力矩球或游戏控制装置。

(32)采用程序VRML创建虚拟现实场景,使学习者与虚拟场景中的事物互动。

其中所述步骤(32)采用程序VRML创建虚拟现实场景的步骤包括:

(321)学习者通过交互装置在VRML的工作界面中输入设计用语;

(322)根据设计用语选择VRML虚拟场景或图片;

(323)在存储单元中调用场景数据,采用虚拟漫游算法设计场景;

基于图形的虚拟漫游算法,实质上是一种基于计算机图形学的三维几何模型实现基础建模和绘制的技术,又称为基于图形的建模和绘制。它建立的是场景的几何模型,这种方法也常被称为建模法。在基于模型的绘制方法中,三维模型数据的获取常采用CAD的模型生成器或从实际环境中直接获取数据。这种技术首先对真实场景进行抽象,用数学意义上的曲线和曲面等先定义好一个虚拟场景的三维几何模型,接着进行三维变换,设置观察位置,然后进行光照处理、纹理映射、隐藏面消除等工作,最后在输出设备上实时渲染绘制视景画面,从而完成对整个场景的漫游。

用图形法实现的漫游系统中,虚拟景观大多具有精确对应的几何模型,得到的场景显得比较细腻、逼真,同时便于用户与虚拟场景中虚拟对象的交互,以及对虚拟对象的深度信息进行直接获取。

(324)对设计的场景进行渲染,调整设计结果。

在该方法中,在本方法中,学习者可以使用VRML浏览器进入三维世界的虚拟现实场景,在这里,学习者具有较大的主动权和自由度,可以根据个人意志控制,选择舒适的方式控制,能够与虚拟世界中的实体进行互动,利用虚拟现实建模语言,不仅能够模拟现实世界,而且还可以模拟现实中难以实现和观察到的过程、事物和现象。其显示的图像为动态和三维的,加上一定的交互性操作和实验,能够激发起学习者的兴趣,有利于提高学习者的理解、分析、创造能力,加深学习者的注意力。

计算机管理系统能够完成数据的输出、输入、所述编程语言可以为C或C++

优选地为VRML,VRML是一种实用化的虚拟现实建模语言。VRML的扩展名为.wrl或.wrz等结尾,是一种用来描述几何形体的简单的ASCII文件。VRML的编辑共计可以是任意一种文本编辑器,Dos下的Edit、Windows3.x下的,Win95下的写字版,记事本以及Microsoft word、WPS等都可以用来编辑VRML文件。VRML文件不需要任何编辑,直接由浏览器解释执行,可以方便地实现桌面的虚拟实现。其主要作用有:

建立虚拟实验室:

建立理、化、生地等各种虚拟实验室,学习者可以自己动手,做各种在硬件设施中不容易做的实验,比如力学、热学、电学、光学、生物等各种实验,可以在虚拟的世界中进行解剖实验,可以研究从微观的DNA分子到宏观的燃烧、爆炸等反应现象。避免了危险实验带来的危害。

使教学变得便利,学习更加容易:

通过VRML的课件,可以使教学中的难点问题变得更加容易,能够使抽象化的概念、理论直观化、形象化,便于对抽象概念的理解;能够使生活中无法观察到的自然现象或事物的变化过程生动、逼真地体现出来;还能够使学习者在学习过程中能够提出各种假设模型尽心虚拟、实验、验证,并可以判断其在现实中的可行性。

专利仿真学习:

利用本发明,能够对各种各样的专业技能进行训练,例如进行各种仿真外科手术的学习,进行人体器官的置换手术,在恶劣天气情况下驾驶飞机起飞、降落。

(33)制作PPT、动画、word、多媒体播放的音频、视频材料和显示材料文件。

文件的制作不局限于视频文件,还包括:PPT、视频、图片等,支持的视频格式包括avi、wmv、mp4等各种文件。

在具体提实施例中,比如可以制作出诸如《小蝌蚪找妈妈》、《乌兔赛跑》、《乌鸦喝水》等学习教材,也可以制作出诸如《孙悟空三大白骨精》等场景。

在具体实施例中,数据库中的游戏或学习数据可以从互联网上直接下载,根据需要,选择满足需要的游戏材料。

1.将制作好的设计课件或游戏项目存储到存储单元中;

2.判断是否进行多媒体显示,

21.如果需要进行多媒体显示,启动计算机服多器,使制作的视频文件通过多媒体显示装置显示;

在该步骤中,如果需要大屏幕显示课件内容,则可以通过多媒体大屏幕显示,学习者佩戴3D装置,或者三维眼镜可以体验逼真的立体效果。

22.如果不需要进行多媒体显示,启动交互装置,连接学生主机,通过通讯协议与计算机控制系统通讯,

在该步骤中,也可以不启动大屏幕显示课件内容,在本发明的设计中,学生主机与计算机管理系统连接在一起,通过通讯网络进行通信,学习者可以通过各自的主机与计算机系统进行通信、互动。

23.学习者通过交互装置与教学内容或游戏内容互动。

本发明为学生提供了一系列的自主、交互和直观的学习环境,为教学的创新提供了新的平台和可能性,丰富了教学的实践形式和多样性。

本发明有益的效果是:

数据库的制作:本发明采用本发明利用虚拟合成技术,可将人物虚拟到任意空间内,并在虚拟的空间内进行活动,用此技术可实现老师和学生在固定场所下模拟出丰富的场景下的教学和实践,老师和学生可以在计算机模拟出的场景下进行角色扮演,做到身临其境的直观感受,将现实生活中的场景和未知世界进行虚拟模拟,解决单纯书本学习的枯燥与乏味,增强学生的直观体验感受,提高学习趣味,加深学习记忆。由于是计算机的虚拟技术,场景规模可以任意大,只要学习有需求就可以随时添加,成本低廉。

除此还可以基于3D MAX、视频剪辑器、AFTER、EFFECTS、PREMIERE、PHOTOSHOP、CAD或CAM的操作工具对视频编辑、图像设计等进行互动性游戏制作、课件制作技术,制作后放入数据库备用。

采用VRML创建虚拟现实场景以突出教学中的难点和重点,能够与虚拟世界中的实体进行互动,利用虚拟现实建模语言,不仅能够模拟现实世界,而且还可以模拟现实中难以实现和观察到的过程、事物和现象。其显示的图像为动态和三维的,加上一定的交互性操作和实验,能够激发起学习者的兴趣,有利于提高学习者的理解、分析、创造能力,加深学习者的注意力。

本发明对教学情景、教学实验、技能训练等进行虚拟,利用虚拟现实场景交互性、沉浸性、多感知性和可操作性等优势来表现教学内容,解决教学中的重点、难点问题,提高学生学习积极性。

虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些具体实施方式仅是举例说明,本领域的技术人员在不脱离本发明的原理和实质的情况下,可以对上述方法和系统的细节进行各种省略、替换和改变。例如,合并上述方法步骤,从而按照实质相同的方法执行实质相同的功能以实现实质相同的结果则属于本发明的范围。因此,本发明的范围仅由所附权利要求书限定。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1