一种全时空立体可视化方法

文档序号:7783091阅读:386来源:国知局
一种全时空立体可视化方法
【专利摘要】本发明提供了一种全时空立体可视化方法,包括:将摄像机采集的实时视频数据进行封包格式转换;将实时的固定角度视频数据拼接融合到3D?GIS空间数据中,形成全景立体视频;以全景立体视频中的事件目标为驱动,实现摄像机协同追视;根据上述封包格式转换结果,在存储装置中保存实时视频数据,形成历史视频数据,将其中的固定角度视频数据拼接融合到3D?GIS空间数据中,实现历史视频的全时空立体可视化展示。此外,为了在整体场景下进行视频智能分析以及实现多维数据融合和立体可视化展示,本发明还提出了全场景视频智能分析方法和多类型数据全时空立体可视化方法。本发明为宏观指挥监测、整体关联、综合调度提供有效手段,适用性强。
【专利说明】—种全时空立体可视化方法
【技术领域】
[0001]本发明涉及计算机图形图像学领域,特别地,涉及到一种全时空立体可视化方法。【背景技术】
[0002]随着信息技术的飞速发展,各种应用设备,如扫描仪、监控摄像机、报警器、传感器等,采集到海量的数据,这些数据包含了空间位置、文字、图像、声音等各种信息。数据量的与日俱增给数据管理带来了极大的挑战。基于人80%以上信息依靠视觉获取的特点,可视化技术得到了长足的发展,目前已经在城市各处安装了大量的监控摄像机、报警器、传感器等,由于多个摄像机捕获的视频画面是离散独立的,各画面间关联性较差。同时,基于视频监控的智能分析成为了目前的研究热点,即使用计算机代替人、协助人分析监控场景中出现的可疑目标和具有潜在危险的事件,并完成相应的控制任务。为了实现全方位大场景的智能视频监控,使得观察者能够更快更准确的感知周围场景的变化,人们期望能够通过摄像机看到更广范围的视频图像。为了实现这一目标,目前主要有以下几类方法:
[0003]1.全景摄像技术
[0004]传统的视频图像采集获得的是单视点在某个观察方向上的场景信息,而运用全景成像则可以得到单视点在所有观察方向上的场景信息。与快球摄像机不同,全景摄像机能同时观察和摄录多个不同的区域,具有实现监控范围广,同时可在指定范围内代替多台摄像机,具备无机械部件、避免了故障率高和降低后期维修服务量等优势。全景摄像机的实现方式主要有两种,一种是采用鱼眼镜头,在吸顶安装时实现360度全景监控,或通过壁装实现180度全景监控;另一种是采用多镜头拼接实现360度的监控。
[0005](I)鱼眼镜头全景摄像技术
[0006]Lancam, Μ0Β0ΤΙΧ、奇偶、腾龙、海康威视和殷浩等都开发了此类技术。鱼眼镜头全景摄像机具有更宽广的视野范围,在采集全景图像方面更具优势。然而,在实际的全景图像的生成过程中,鱼眼摄像机除了画面中心的景物保持不变,因光学原理产生的变形,其它本应水平或垂直的景物都发生了相应的变化,必须对鱼眼摄像机采集的图像进行复杂的较准和较正,但是处理后的鱼眼图像的变形依然存在,尤其是边缘区域的图像失真严重。同时,因为安装位置的限制,其适用范围受限。
[0007]目前鱼眼摄像机主要定位在专业应用市场,比如大场景环境或易于垂直安装的场合。作为常规摄像机的一个补充,它有着不错的发展前景,特别是在那些不是很注重细节,但很关注过程的场合,比如十字路口、大门口、会议室等。
[0008](2)多镜头全景摄像技术
[0009]多镜头全景摄像机虽然不存在鱼眼图像变形矫正的问题,但如何保证多镜头拍摄画面的拼接实现无死角、无盲点、连贯的全景监控,是其中的关键问题。当前主要有两类实现方法:基于拼接的全景采集成像和基于折反射的全景采集成像。
[0010]基于拼接的全景技术已比较成熟,许多知名公司的产品都己具有拼接全景的功能,典型的有苹果公司的QulckTimeVR系统,微软公司的Surrounding Video系统,佳能的A71015、柯达的V705数码相机等,国内的国防科技大学、浙江大学、清华大学等提出了许多新的图像拼接方法和思想,极大丰富和完善了基于图像拼接的全景成像技术。但这种基于拼接产生的全景图像存在拼接缝和明暗差异,画面的整体感差,且生成过程复杂。如果将拼接式全景技术应用于视频,则需要精确校准且同步拍摄的多摄像机阵列,设备复杂,且和拼接式全景图像一样,画面整体感差的问题依然无法解决。
[0011]利用折反射光学元件实现全景成像已逐渐发展起来,并以其结构简单,兼容已有成像设备,可方便的扩展应用于全景视频采集等优势。
[0012]全景摄像机产品由于各种因素的局限性,目前国内的应用仍然处于初级阶段。当前全景摄像机的成本过高依旧是其不能广泛在市场被应用的一大软肋,同时,全景摄像机画面的效果也是制约发展的重要因素,这包括了全景摄像机的分辨率和画面矫正两大难题。全景摄像机高像素的产品不仅是Sensor的选取,ISP的处理、编码以及与网络相应的配合都很重要,并且在相应的结构、工艺等要求上,要比普通摄像机严格数倍。
[0013]2.3D GIS与监控视频的整合技术
[0014]随着Google Earth、Skyline Software、GeoFusion 以及国内的“影像中国”、Εν-Globe, VGEGIS等三维软件的推出,三维GIS在构建数字城市基础平台系统中的地位变得越来越重要。如何把三维GIS与广泛分布于城市各个角落的二维视频监控系统集成起来已成为基于位置的视频监控系统的研究热点。集成了空间位置信息的视频监控系统在增强用户空间位置意识、辅助用户应急决策等方面将发挥更大的作用。目前比较流行的做法是间断性地从各地实时监控影像中采集出图片,以标注的形式在三维场景中进行显示。当用户想知道某地的监控影像时,点击该标注即可弹出实时监控影像截图,如立得空间将摄像机的数据引入3DGIS平台中,实现“动” “静”态城市监控。在实际应用中,由于网络传输速度等原因,该三维视频监控方式还远没有达到与三维周边信息进行融合的目标,丢失了大量的信息。
[0015]3.立体视频监控技术
[0016]随着计算机视觉和模式识别等领域理论研究的逐步深入,视频的立体融合技术成为研究热点。美国专利US2002191003涉及到视频路数受限情况下的视频融合,该方法能够同时处理的视频路数受限,无法实时处理多于十六路的监控视频,距离大规模的应用还有很大差距;而且没有针对融合后的视频分析功能。由于监控视频数据量巨大,对于多于16路的视频数据无法实时处理,限制了该方法的适用环境。国内受限于技术水平,尚无同类产品。实时融合海量视频数据并进行立体全景显示仍是一个世界级的难题。
[0017]4.视频监控的智能分析技术
[0018]针对分镜头的视频分析,在世界范围内,美、英等国已经开展了大量相关项目的研究。从上世界90年代中期开始,在欧美国家,智能视觉分析取得了快速发展,它主要研究用于战场及普通民用场景进行监控的自动视频理解技术。英国的ADVISOR项目(AnnotatedDigital Video for Intelligent Surveillance and Optimized Retrieval),依据视步页数据估计地铁交通环境中的人群密度及其运动量,分析人与人群的行为,对有潜在危险的事件或犯罪事件进行预警。当前,IBM的S3 (Smart Surveillance System)项目组,Intel的IRISNET(Internet-scale,Resource-1ntensive Sensor Network ServICes)项目组等,分别在分布式智能监控系统的不同领域处于领先地位。在国内研究机构中,清华大学、上海交通大学、中科院计算所等单位均进行了相关的智能视觉监控项目研究。但是,目前国内的研究多数还停留在实验室阶段,在室外多摄像机的视频监控网络中的多目标跟踪与识别尚没有得到大规模的应用。
[0019]在视频智能分析软件的市场需求急剧增长的刺激下,国外提供视频智能分析软件产品的厂商已经有很多,其中很多厂商提供的视频智能分析产品,都基于ObjectVideo公司的图像分析技术,采用Object Video Onboard平台来设计并创建自己品牌的OEM产品。在解决方案的提供商,国外有很多成功的案例,如旧金山国际机场采用了由Vidient公司提供的智能视频分析系统Smart Catch,该系统与机场现有的闭路电视系统协同检测异常或可疑行为。当智能视频分析软件识别出一个异常情况时,就立即将视频片断通过呼机、手提电脑、移动电话或其他通讯设备发送给响应者前来进行现场调查。但是国外公司的产品基本是以标清或CIF分辨率为主,监控视场较小,不太适合中国人流复杂、运动无规律的应用背景;而且国外军方的智能分析虽较成功,但技术受保密限制。国内视频智能分析产品大多是对单路监控视频及进行分析,如智安邦、文安科技、贝儿信等,目前针对全场景的全局智能分析产品很少。
[0020]综上所述,视频监控技术经历了从局部监控到全景观察、从平面视频监控到立体视频监控的发展过程,目前针对大场景的视频监控技术已经取得了一些重要成果,但总体来说,目前国内外尚无能够大规模应用的对监控区域进行全局监控的技术和能够对监控区域进行全场景视频智能分析的通用技术。

【发明内容】

[0021]本发明的目的是为了克服现有技术中存在的上述不足,提供一种通用、高效的方法,将不同视角的零散视频、多种传感器信息、GPS信息、门禁信息、报警信息实时自动拼接融合到3D GIS空间数据中,在全景画面中实现全时空立体可视化展示与控制。
[0022]为了实现上述目的,根据本发明的一个方面,提供了一种监控视频全时空立体拼接融合方法,包括以下步骤:
[0023]步骤I)、将摄像机采集的实时视频数据进行封包格式转换,所述实时视频数据包括枪式摄像机和/或球型摄像机在预置位采集的固定角度视频数据,还包括球型摄像机采集的非固定角度视频数据;
[0024]步骤2)、将实时采集的固定角度视频数据拼接融合到3D GIS空间数据中,形成全景立体视频,实现实时的全时空立体可视化展示;
[0025]步骤3)、根据步骤I)预处理的非固定角度视频数据和步骤2)形成的全景立体视频,通过以全景监控中的事件目标为驱动,实现摄像机协同追视,即在全景立体视频或3DGIS空间数据中点击观测目标或位置,其周边的多个摄像机将被调用以锁定该区域;
[0026]步骤4)、根据步骤I)的封包格式转换结果,在存储装置中保存实时视频数据,形成历史视频数据;
[0027]步骤5)、将步骤4)形成的历史视频数据中的固定角度视频数据拼接融合到3DGIS空间数据中,实现历史视频的全时空立体可视化展示,以对历史视频数据进行全景还原回溯。
[0028]进一步地,在所述的步骤2)实现的实时全时空立体可视化展示包括:重点区域大场景监控、关键路径自动巡航、二维和三维信息关联显示、摄像机反向关联、以及摄像机协同追视。
[0029]进一步地,在所述的步骤5)实现的全时空立体可视化展示包括:重点区域大场景监控、关键路径自动巡航、二维和三维信息关联显示、摄像机反向关联,以及历史事件大场景回溯。
[0030]进一步地,所述重点区域大场景监控包括:用户预设观测点监控重点区域的场景,以全局视角观察重点区域动态;所述关键路径自动巡航包括:自定义巡航轨迹,并按照设定好的视角、速度进行自动巡航;所述二维和三维信息关联显示包括:全景立体视频显示与2D GIS空间数据同步显示,全景立体视频显示与分镜头视频数据同步显示,2D GIS空间数据与分镜头视频数据同步显示,摄像机的位置和覆盖区域以及用户当前观察点的位置均记录在2D GIS空间数据中;所述摄像机反向关联包括:在全景立体视频或2D GIS空间数据上选择所需要观测的目标或地理位置,根据该目标或地理位置关联所有照射到该目标或地理位置的摄像机。
[0031]进一步地,摄像机协同追视包括:在全景立体视频或3D GIS空间数据中通过交互选择观测目标或地理位置,根据该目标或地理位置调用周边的多个摄像机照射到该区域,并可以对摄像机进行光学变焦,全方位、多角度捕捉细节信息。
[0032]进一步地,历史事件大场景回溯包括:从存储装置中读入多个摄像机采集的历史视频数据,将历史视频数据可视化到3D GIS空间数据中,在全时空环境下正向或反向播放搜索,即设置回溯的时间段和区域、提供逐帧正播、逐帧倒播、停止播放、快进、快退和随机定位播放,以提升历史事件的查询效率。
[0033]进一步地,在所述的步骤I)中采集固定角度视频数据时,摄像机采集到的视频覆盖区域不发生变化;采集非固定角度视频数据时,摄像机采集到的视频覆盖区域可以任意变化。
[0034]根据本发明的另一个方面,提供了一种全场景视频智能分析方法,包括以下步骤:
[0035]步骤10)、选定视频智能分析区域;
[0036]步骤20)、采用权利要求1-7之一所述的监控视频全时空立体拼接融合方法,建立视频数据和三维空间的对应关系,进行跨镜头全场景下的视频智能分析,在发现异常时自动报警;
[0037]步骤30)、将步骤20)的分析结果在权利要求1-7之一所述的全景立体视频中进行展示,或根据报警信息自动触发摄像机协同追视,通过摄像机观察报警点的细节信息。
[0038]进一步地,在所述的步骤20)中,视频智能分析包括跨镜头目标跟踪、人流车流密度估计、异常行为检测。所述异常行为检测包括拌线检测、人群异常聚集检测、遗留物检测、异常速度检测。
[0039]根据本发明的再一个方面,提供一种多类型数据全时空立体可视化方法,实现在全景视频与多类型传感器、GPS、门禁、报警数据的信息融合,包括以下步骤:
[0040]步骤100)、输入传感器信息、GPS信息、门禁信息、报警信息;
[0041]步骤200)、采用权利要求1-7之一所述的监控视频全时空立体拼接融合方法建立的视频数据和三维空间的对应关系,将多种传感器信息、GPS信息、门禁信息、报警信息整合到全景立体视频中,以实现全方位的多维融合和可视化展示。
[0042]根据本发明的又一方面,提供了一种与传感器系统、门禁系统、报警系统联动的多类型数据全时空立体可视化应用,其特征在于,根据权利要求10所述的多类型数据全时空立体可视化方法实现所述应用。
[0043]本发明通过将具有不同视角的零散摄像视频以及处在不同位置的传感器、GPSJl禁和报警信息自动拼接融合到3D GIS中形成多维数据的全时空立体可视化,用户无须了解数据采集设备的具体位置、无需切换任何视频画面,即可实现全景立体监控、全景视频展示和细节掌控有机结合、历史视频全景回溯、全场景下智能报警与展示以及多类型数据的综合应用,为宏观指挥监测、整体关联、综合调度提供有效手段,该方法具有广阔的适用性。
【专利附图】

【附图说明】
[0044]以下结合附图来详细说明本发明的实施例,其中:
[0045]图1为本发明方法流程图;
[0046]图2为一个实例中基于特征的图像配准算法示意图;
[0047]图3为视频拼接融合到三维场景模型中形成的全景立体视频;
[0048]图4为摄像机协同追视不意图;
[0049]图5为全景智能分析流程图;
[0050]图6为全景智能分析结果示意图;
[0051]图7为多类型数据融合示意图。
【具体实施方式】
[0052]下面结合附图给出本发明的具体实施例。
[0053]根据本发明的一个实施例,提供了一种监控视频全时空立体拼接融合方法。其流程图参见图1。该方法包括如下步骤:
[0054]步骤1、生成和/或获得高精度的2D/3D GIS空间数据,采集和/或获得视频数据。
[0055]作为一种实施方式,基于场景扫描数据、场景图像、CAD/建筑图纸数据生成2D/3DGIS空间数据。
[0056]所述2D/3D GIS空间数据可以是(但不限于)二维地图或三维场景模型。在一个优选的实施例中,2D/3D GIS空间数据为三维场景模型。
[0057]作为一种实施方式,所述视频数据来自摄像机采集的实时视频数据。作为另一种实施方式,所述视频数据来自第三方平台提供的实时视频数据。视频数据包括如下数据:枪式摄像机和/或球型摄像机在预置位采集的固定角度视频数据,还包括球型摄像机采集的非固定角度视频数据。
[0058]根据本发明的一个优选的实施例,在采集所述的固定角度视频数据时,摄像机采集到的视频覆盖区域不发生变化;采集非固定角度视频数据时,摄像机采集到的视频覆盖区域可以任意变化。
[0059]步骤2、所述视频数据经过网络通信实时传输到指挥中心,并在指挥中心对各类数据进行预处理。
[0060]这一步骤的主要目的是获取到外部的上述视频数据,对视频数据进行封包格式转换,并以内部数据传输格式分发出去。
[0061]作为一种实施方式,上述视频数据的获取可以通过以下几种视频接入的方式实现。其中,前三种方式中外部视频数据既可以是摄像机采集的视频数据(例如通过前文所述的摄像机采集的实时视频数据的方式),也可以是第三方系统提供的视频数据(例如通过前文所述的第三方系统提供的实时视频数据的方式),第四种方式中外部视频数据仅针对摄像机采集的视频数据。
[0062](I)RTSP 方式(RTSP Over TCP, RTSP Over UDP)
[0063]依照标准RTSP协议实现,解析H.264数据并将H.264数据封装到MPEG2-TS流中。其中RTSP协议的实现,与MEPG2-TS协议的实现均为标准协议。
[0064](2) RTP 方式(RTP Over UDP)
[0065]RTP为RTSP协议中传输H.264数据的封装格式,解析RTP数据保存的H.264数据,并将H.264数据封装到MPEG2-TS流中。RTP数据接收为UDP组播或者单播。
[0066](3) MPEG-TS 方式(MPEG-TS Over UDP)
[0067]MPEG2-TS为MPEG2中的标准协议,解析H.264数据,并将H.264数据封装到MPEG2-TS 流中。
[0068](4) SDK定制开发
[0069]当接入摄像机没有开放协议时,通过摄像机提供的SDK进行接入。如果SDK中只提供显示数据如YUV、RGB,则先对此数据进行编码为H.264数据后,再封装到MPEG2-TS中。
[0070]在一个优选的实施例中,内部数据传输格式为MPEG-TS Over Multicast UDP,通过不同的TS-PID进行解复用和区分。
[0071]步骤3、将实时采集和/或获得的固定角度视频数据自动拼接融合到三维场景模型中,形成全景立体视频,实现实时的全时空立体可视化展示。
[0072]作为一种优选的实施方式,所述自动拼接融合按照如下的步骤实现:对所有的上述固定角度视频数据进行分析,检测分离出前景目标,基于相机标定技术精确计算出其空间位置,按照其对应的时间序列信息拼接融到三维场景模型中,实现在三维场景模型中的拼接融合显示,且融合后的全时空立体视频无形变、不失真。
[0073]具体来说,在该步骤中,将实时的固定角度视频数据自动拼接融合到3D GIS空间数据中,形成全景立体视频,实现实时的全时空立体可视化展示具体包括前景目标检测、三维重建融合、视频图像归一化和全时空立体可视化展示几部分或步骤。下面结合本发明的一个优选的实施例来阐述以上各部分或步骤。
[0074](I)前景目标检测
[0075]前景是指在假设背景为静止的情况下,任何有意义的运动目标。其中重点涉及如下两方面:
[0076]A.多层次前景背景建模
[0077]背景建模是前景目标提取的一个重要环节,基本思想是从当前帧中提取前景。其目的是使背景更接近当前视频帧的背景。利用当前帧和视频序列中的当前背景帧进行加权平均来更新背景。但是由于光照突变以及其他外界环境的影响,一般建模后的背景并非十分干净清晰;而且运动目标行进速度随时变化,很有可能出现完全静止,如果将它们更新为背景,会造成对重要目标的遗漏。基于此,本优选的实施例中采用多层次高斯混合模型,用于实时的、鲁棒的检测各种速度(包括从运动到静止)的目标。利用多层次混合高斯模型来抽取背景的方法鲁棒地克服光线、树枝摇动等造成的影响,而且可以克服运动物体长期静止时的失效状况。
[0078]具体方法是使用K (例如,从3到5)个高斯模型来表征图像中各个像素点的特
征。具体来说,特定像素点的视频序列可看作一时间序列{Xp X2,…,XtI = {I (x0, y0, i):
I ^ i ^ t},且该时间序列可表示为K个高斯分布的叠加,当前点的概率表示为:[0079]
【权利要求】
1.一种监控视频全时空立体拼接融合方法,包括以下步骤: 步骤I)、将摄像机采集的实时视频数据进行封包格式转换,所述实时视频数据包括枪式摄像机和/或球型摄像机在预置位采集的固定角度视频数据,还包括球型摄像机采集的非固定角度视频数据; 步骤2)、将实时采集的固定角度视频数据拼接融合到3D GIS空间数据中,形成全景立体视频,实现实时的全时空立体可视化展示; 步骤3)、根据步骤I)预处理的非固定角度视频数据和步骤2)形成的全景立体视频,通过以全景监控中的事件目标为驱动,实现摄像机协同追视,即在全景立体视频或3D GIS空间数据中点击观测目标或位置,其周边的多个摄像机将被调用以锁定该区域; 步骤4)、根据步骤I)的封包格式转换结果,在存储装置中保存实时视频数据,形成历史视频数据; 步骤5)、将步骤4)形成的历史视频数据中的固定角度视频数据拼接融合到3D GIS空间数据中,实现历史视频的全时空立体可视化展示,以对历史视频数据进行全景还原回溯。
2.根据权利要求1所述的监控视频全时空立体拼接融合方法,其特征在于,在所述的步骤2)实现的实时全时空立体可视化展示包括:重点区域大场景监控、关键路径自动巡航、二维和三维信息关联显示、摄像机反向关联、以及摄像机协同追视。
3.根据权利要求1所述的监控视频全时空立体拼接融合方法,其特征在于,在所述的步骤5)实现的全时空立体可视化展示包括:重点区域大场景监控、关键路径自动巡航、二维和三维信息关联显示、摄像机反向关联,以及历史事件大场景回溯。
4.根据权利要求2或3所述的监控视频全时空立体拼接融合方法,其特征在于,所述重点区域大场景监控包括:用户预设观测点监控重点区域的场景,以全局视角观察重点区域动态;所述关键路径自动巡航包括:自定义巡航轨迹,并按照设定好的视角、速度进行自动巡航;所述二维和三维信息关联显示包括:全景立体视频显示与2D GIS空间数据同步显示,全景立体视频显示与分镜头视频数据同步显示,2D GIS空间数据与分镜头视频数据同步显示,摄像机的位置和覆盖区域以及用户当前观察点的位置均记录在2D GIS空间数据中;所述摄像机反向关联包括:在全景立体视频或2D GIS空间数据上选择所需要观测的目标或地理位置,根据该目标或地理位置关联所有照射到该目标或地理位置的摄像机。
5.根据权利要求2所述的监控视频全时空立体拼接融合方法,其特征在于,摄像机协同追视包括:在全景立体视频或3D GIS空间数据中通过交互选择观测目标或地理位置,根据该目标或地理位置调用周边的多个摄像机照射到该区域,并可以对摄像机进行光学变焦,全方位、多角度捕捉细节信息。
6.根据权利要求3所述的监控视频全时空立体拼接融合方法,其特征在于,历史事件大场景回溯包括:从存储装置中读入多个摄像机采集的历史视频数据,将历史视频数据可视化到3D GIS空间数据中,在全时空环境下正向或反向播放搜索,即设置回溯的时间段和区域、提供逐帧正播、逐帧倒播、停止播放、快进、快退和随机定位播放,以提升历史事件的查询效率。
7.根据权利要求1所述的监控视频全时空立体拼接融合方法,其特征在于,在所述的步骤I)中采集固定角度视频数据时,摄像机采集到的视频覆盖区域不发生变化;采集非固定角度视频数据时,摄像机采集到的视频覆盖区域可以任意变化。
8.—种全场景视频智能分析方法,包括以下步骤: 步骤10)、选定视频智能分析区域; 步骤20)、采用权利要求1-7之一所述的监控视频全时空立体拼接融合方法,建立视频数据和三维空间的对应关系,进行跨镜头全场景下的视频智能分析,在发现异常时自动报m.1=I , 步骤30)、将步骤20)的分析结果在权利要求1-7之一所述的全景立体视频中进行展示,或根据报警信息自动触发摄像机协同追视,通过摄像机观察报警点的细节信息。
9.根据权利要求8所述的全场景视频智能分析方法,其特征在于,在所述的步骤20)中,视频智能分析包括跨镜头目标跟踪、人流车流密度估计、异常行为检测。
10.一种多类型数据全时空立体可视化方法,包括以下步骤: 步骤100)、输入传感器信息、GPS信息、门禁信息、报警信息; 步骤200)、采用权利要求1-7之一所述的监控视频全时空立体拼接融合方法建立的视频数据和三维空间的对应关系,将多种传感器信息、GPS信息、门禁信息、报警信息整合到全景立体视频中,以实现全方位的多维融合和可视化展示。
11.一种与传感器系统、门禁系统、报警系统联动的多类型数据全时空立体可视化应用,其特征在于,根 据权利要求10所述的多类型数据全时空立体可视化方法实现所述应用。
【文档编号】H04N13/00GK103795976SQ201310747292
【公开日】2014年5月14日 申请日期:2013年12月30日 优先权日:2013年12月30日
【发明者】张政, 周锋, 刘舟, 张贺, 何浩 申请人:北京正安融翰技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1