1.本发明涉及深度学习三维建模领域,具体涉及一种基于人工智能的空间对象分析及建模优化方法。
背景技术:2.随着科学技术的进步与现代人工智能技术的飞速发展,现代建模方式己经迈入自动化、智能化、个性化的崭新阶段,愈来愈向着构建仿真化程度更高的复杂对象发展。
3.现代建模方法主要有两种方式,一种是利用激光点云数据人工手动提取空间对象整体轮廓线,通过人工优化轮廓来提高空间结构的准确性,另一种是利用机器学习算法对点云数据进行分层,相似层分类形成不同组成部分,分别去建模,从而实现整体轮廓建模。然而,上述两种基于激光点云数据的建模方法,均需要对输入的所有点云数据遍历分析处理,须耗费大量时间,从而降低了建模效率。
4.通过虚拟仿真,对现实世界中实体的结构特征和性能进行数字化描述与建模。通过将虚拟数据可视化,完成现实与虚拟模型的映射。数字孪生作为一种新兴高科技技术,融合了物联网,虚拟现实,仿真等多种数字化技术,能实现现实与虚拟世界的映射。尽管数字孪生在制造业、医疗保健、城市管理等方面具有广泛的应用,但由于其内涵过于丰富,导致国内缺乏相应的标准体系、适用准则、实施要求以及支持工具和技术平台的标准参考。使得数字孪生技术应用得还不够完善,在虚拟模型优化应用方面有待拓展。
5.针对上述技术在现有领域应用方面的不足之处,本发明利用空间对象分析与不同建模方法获取的模型参数,结合数据库数据,采用数字孪生技术实现模型优化,从而完善其在虚拟模型优化方面的应用。
技术实现要素:6.本发明针对上述现有技术中存在的不足提供一种基于人工智能的空间对象分析及建模优化方法,本发明所提出的方法适用于对空间对象进行三维重建及空间对象分析的应用场景,本发明具体包括基于人工智能的空间对象分析方法、基于人工智能的空间对象建模方法和基于人工智能的模型优化方法;
7.第一方面,所述基于人工智能的空间对象分析方法包括如下步骤:
8.步骤a1,对预先获取到的空间对象目标的图像信息进行预处理,通过空间对象分析,优化空间对象模型并获取相应的参数信息,包括:
9.对图像信息进行反色图像增强预处理,提高后续轮廓检测算法对空间对象窗户等目标的检测效率和准确度;对图像信息进行平滑处理,通过增加像元内插,加大像元分辨率等方法,使图像细化;对边缘检测后图像中的边框进行突出处理;对图像信息进行形态学和开运算(先腐蚀后膨胀)去噪,去除图像信息边缘噪声,提高后续边缘检测算法对空间对象边缘的检测效率和准确度;
10.对预处理后的图像信息进行边缘检测,采用laplacian算子方法,突出图像中小的
细节信息,提高模型精确度;使用基于边缘检测的轮廓检测方法处理预处理后得到的图像信息,忽略背景和目标内部的纹理以及噪声干扰影响,将图像与微分算子卷积,并调整bgr参数范围获取最优检测效果,完成对空间对象的轮廓提取。
11.步骤a2,使用yolov3目标检测网络模型检测空间对象外围物体(如窗户等目标),获得空间对象分析数据信息,完善空间对象模型外围物体的建模准确度,包括:
12.用预训练好的目标检测网络模型对预处理后的图像信息进行目标检测。用预训练好的目标检测网络模型得到的窗户位置参数信息,提高模型中窗户位置、大小等参数的精确度;用另一预训练好的目标检测网络模型对预处理后的图像信息进行空间对象外围物体目标检测,选取必要的目标信息完善空间对象模型外围信息。
13.步骤a3,将空间对象分析数据信息实时导入数据模型库,用于模型细节参考优化;
14.步骤a2包括:
15.yolov3目标检测在实施时包括:从特征获取预测结果、预测结果的解码、对预测出的边界框得分排序与非极大抑制筛选;其中在进行预测结果的解码后得出最后显示的边界框,使用的公式如下:
16.b
x
=σ(t
x
)+c
x
17.by=σ(ty)+cy[0018][0019][0020]
pr(object)*iou)(b,object)=σ(to)
[0021]
其中:c
x
、cy分别表示预设边框所在网格的左上角距离最左上角在x轴方向上相差的格子数和y轴方向上相差的格子数;pw、ph分别表示先验框的宽和高;t
x
、ty分别表示目标中心点相对于预设边框所在网格左上角的在x轴方向上的偏移量和y轴方向上的偏移量;tw、th分别表示预测边框的宽和高;σ表示激活函数;pr(object)表示先验框是否有对象的概率;iou表示交并比。
[0022]
第二方面,所述基于人工智能的空间对象建模方法包括基于深度学习的三维重建方法和基于激光扫描的三维重建方法,所述基于深度学习的三维重建方法包括如下步骤:
[0023]
步骤b1,根据预先获取到的空间对象目标相邻场景的连续图像信息,利用二维图像信息通过位置计算确定三维图像信息;
[0024]
通过colmap利用特征提取获取相机参数信息,实现不同复杂程度的不同相机模型区分,确定相机模型、信息数据以及输入视角的位姿、内参、稀疏点及共视关系等信息;
[0025]
根据时间顺序拍照,使用相邻数张图像匹配特征,通过特征匹配完成空间对象的物理环境信息与自身特征采集;
[0026]
步骤b2,利用增量式sfm(structure from motion)算法对采集到的二维图片信息进行迭代处理获得图像信息并进行相应的特征匹配,通过所得到的数据对现实中的物体进行初步的稀疏三维重建,并获得对不同相机的位姿、内参以及它们的共视关系;最后得到空间对象的稀疏点云和各个视角对应的相机姿态;
[0027]
步骤b3,采用增量式sfm算法获取基础物理信息与模型投影,通过mvs(multi-view stereo)算法对稀疏点云信息进行三维重建,获得空间对象的深度图及稠密点云信息,获得空间对象的深度图及稠密点云信息,包括:
[0028]
使用poisson方法进行mesh重建得到带有颜色的mesh模型,完成空间对象的三维重建;通过aa-rmvsnet构造匹配代价以实现深度估计,提取深度一致的点实现稠密重建;
[0029]
对影像进行去畸变处理,减小colmap使用光学一致性和几何一致性联合约束构造匹配代价时边缘较大引起的的视差估计差距,通过神经网络直接学习完成从代价到深度值的学习过程,沿概率体的深度方向,以深度期望值作为像素的深度估计值,使整个深度图中不同部分内部平滑,减少深度突变、不平滑等情况发生;
[0030]
通过colmap,利用光学一致性同时估计视角的深度值和法向量值,利用几何一致性进行深度图优化,得到photometric和geometric下的深度图和法向量图,通过配准进行深度图融合,按投影方法进行点云恢复,完成稠密重建,得到空间对象的稠密点云信息;
[0031]
步骤b1包括:
[0032]
在进行位置计算时,其中摄像机坐标系与世界坐标系之间的关系用旋转矩阵r和平移矩阵t表示,从而将各点坐标统一到同一坐标系中,公式如下:
[0033][0034]
它的齐次坐标可以表示成:
[0035][0036]
其中xc、yc、zc表示的在摄像机坐标系中图像内任意一点研究对象的坐标;xw、yw、zw表示在世界坐标系中图像内所选取的研究对象经转换后的坐标,t为三位平移向量:
[0037]
t=[t
x t
y tz]
t
,0=[0 0 0]
t
[0038]
其中t
x
、ty、tz分别指的是在x轴,y轴,z轴方向上所需平移的距离;
[0039]
旋转矩阵r为3
×
3的正交矩阵,其元素满足:
[0040][0041]
其中表示的是矩阵r中第1行第1列的元素。
[0042]
步骤b2中,所述进行相应的特征匹配时,使用如下公式:
[0043]fnn
=arg min||f
d-f'd||
2 f'∈f(j)
[0044]
其中,f(j)表示图像j周围的特征点;f
nn
表示最邻近的特征向量;fd表示实际上图片上的点;f'd表示所选取图像的某一特征点;
[0045]
步骤b3包括:
[0046]
在通过aa-rmvsnet构造匹配代价以实现深度估计的构造过程中,使用如下公式:
[0047]
[0048]
其中ncc表示影像间光学一致性的测度;l表示图像的特征;表示最优拟合平面的深度,表示最优拟合平面的法向量;表示对于特征i、i的参考影响的ncc。
[0049]
2)所述基于激光扫描的三维重建方法包括如下步骤:
[0050]
步骤c1,通过scan station c10三维激光扫描仪或其他地面型三维激光扫描仪器对空间对象进行数据采集,得到空间建筑对象的激光扫描点云数据或dsm(digital surface model,dsm,数字地表模型)数据,其中采用如下激光雷达方程:
[0051][0052]
其中,pr是接收回波功率,p
t
是发射激光功率,pb是背景辐射和噪声功率;r是目标与雷达之间距离,θ
t
是发射天线视场角/光束发散角;ρ是目标表面对激光的反射率,da是目标表面面元,ω是目标光散射立体角;d是接收天线的孔径,η
atm
是传输介质的双程透过率,η
sys
是光学系统透过率;
[0053]
步骤c2,对激光点云数据进行预处理,运用高斯滤波、拉普拉斯算法进行点云去噪;
[0054]
其中在对部分有序点云数据使用高斯滤波方法时,对于激光点云数据,通过高斯模糊来实现对每个点权重的计算,计算公式如下:
[0055][0056]
其中,g(x,y)指的是所选取点云中的一点的权重;x指的时所选取点云中的一点在坐标系中的横坐标,y指的是所选取点云中的一点在空间坐标系中的纵坐标,μ是x的均值,σ是x的方差;
[0057]
在运用拉普拉斯算法对散乱点云数据去噪时,通过如下方法对点云数据进行拉普拉斯滤波:
[0058]
x方向的一次微分ix(x,y)和y方向的一次微分iy(x,y)分别按照以下式子计算:
[0059]
ix(x,y)=(x+1)-xi(x+1,y)-i(x,y)=i(x+1,y)-i(x,y)
[0060]
iy(x,y)=(y+1)-yi(x,y+1)-i(x,y)=i(x,y+1)-i(x,y)
[0061]
二次微分i
xx
(x,y)按照以下式子计算:
[0062][0063]
拉普拉斯算法去噪的表达式如下:
[0064][0065]
其中指的是对点云中所选取的一点运用拉普拉斯去噪算法;
[0066]
步骤c3,检测边界点,基于点云平均曲率的方法检测尖锐点;利用点云分割进行数据分割完成空间对象建模,包括:
[0067]
基于得到的激光扫描点云数据或dsm数据采用深度学习算法生成空间对象模型的初步轮廓;
[0068]
根据模型初步轮廓,从激光扫描点云数据或dsm数据中提取特征角点,对激光扫描
点云数据进行分层,对相似层进行聚类,根据聚类后的点云数据,生成相应模型;
[0069]
采用基于法向量和距离约束的平面分割方法对激光扫描点云数据或dsm数据进行分割,分割出不同的几何面,通过特征记录自学习,完善空间对象整体模型。
[0070]
3)所述基于人工智能的模型优化方法包括:
[0071]
步骤d1,进行全方位数据采集,结合多源数据与模型数据库,通过坐标转换和数据配准的方法实现多源数据融合匹配,并导入数据库,具体包括:通过使用包括激光雷达等的多源数据采集设备全方位获取不同地形、环境下物理模型的结构、材料等各方面的数据,结合采集到的多源数据与云端模型数据库,使得bim、倾斜摄影模型、激光点云模型及其他gis数据完成融合匹配并进行坐标转换及数据配准,在统一到同一个坐标系中之后实现各种三维数据的坐标投影以及转换,通过上述方法实现具体数据与云端数据的标准化,并实时汇入数据库。
[0072]
步骤d2,通过运用皮尔逊相关性分析方法、k-means、apriori等算法能够最大程度地挖掘数据间的时空关联性,对模型三维重建结果和激光点云建模结果进行加权融合完成模型优化;
[0073]
其中在进行加权融合时,使用以下公式:
[0074]
pre=0.6pre1+0.4pre2
[0075]
其中,pre指的是各个三维重建或激光点云建模所得的坐标结果进行加权融合后的优化坐标结果;pre1和pre2分别指的是使用模型三维重建的坐标结果和激光点云建模的坐标结果;前面的系数是通过预测模型的准确率,将准确性高的模型赋予更高的权重,权重取值范围在0到1之间;
[0076]
步骤d3,模型优化后存入模型数据库,同时对模型整体参数进行重辨识,提取优化数据导入数据库。为后续相似模型识别提供数据积累。
[0077]
本发明相较于现有的建模方法具有以下几点优势:
[0078]
1.本发明基于物联网布设多个传感器实时采集物理实体元信息,同步传输数据基于数字孪生进行优化,实现对物理对象在虚拟空间中的映射。
[0079]
2.本发明基于人工智能优化算法深度挖掘模型数据,实时检测、分析、计算并更新数据,结合大数据管理决策模块完成对模型参数的优化,使建模过程更为高效。
[0080]
3.本发明在三维重建模型基础上结合激光点云等传感器信息,同时结合数据库信息实现多源数据融合配准。
[0081]
有益效果:本发明提供一种基于人工智能的空间对象分析及建模优化方法,该方法具有建模速度快,目标识别时间短等优点。主要采用sfm与mvs相结合的方法实现快速三维重建,并采用人工智能算法对三维重建结果进行目标检测,有效提高建模的效率和准确度。基于数字孪生技术对模型信息进行多源数据融合,实现空间建筑对象全面建模与优化,使信息得到极大扩充。
附图说明
[0082]
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述空间对象分析和三维重建建模优化技术的优点将会变得更加清楚。
[0083]
图1为本发明提供的一种基于人工智能的空间对象分析方法流程图。
[0084]
图2为本发明提供的一种基于人工智能的三维重建建模优化技术结构流程示意图。
具体实施方式
[0085]
本发明提供一种采用人工智能算法对三维重建对象进行目标检测的方法以及三维重建建模与优化的方法,包括基于目标检测的空间对象分析方法以及基于深度学习的三维重建模型优化方法,具体流程如下:
[0086]
1.基于目标检测的空间对象分析方法:
[0087]
步骤a1,通过对目标进行多角度、无死角的连续拍摄得到目标对象的一系列图像,然后进行图像的增强预处理;先用白色减去原色的颜色,完成反色处理;再增加像元内插处理,加大像元分辨率使图像细化,完成平滑处理;最后对有噪声的图像进行开启操作将背景上的噪声去除,完成形态学处理;
[0088]
基于以上工作对图像进行对象分析:使用laplacian算子和sobel算子处理图像,算出图像灰度值的变化值完成边缘检测工作;然后在包含目标和背景的数字图像中忽略背景以及噪声干扰的影响实现目标轮廓提取的过程的轮廓检测;最后算出目标的模型参数完成对象分析。
[0089]
其中,在进行图像的反色处理时,使用的公式如下:
[0090]
f(i,j)=255-f(i,j)
[0091]
(i,j)为图像中任意一点的坐标
[0092]
基于以上工作对图像进行对象分析:使用laplacian算子和sobel算子处理图像,算出图像灰度值的变化值完成边缘检测工作;然后在包含目标和背景的数字图像中忽略背景以及噪声干扰的影响实现目标轮廓提取的过程的轮廓检测;最后算出目标的模型参数完成对象分析。
[0093]
其中,在进行使用laplacian算子和sobel算子处理图像,完成边缘检测的过程中,使用的公式如下:
[0094]
1)两个变量的离散laplacian算子:
[0095][0096]
其中为图像梯度的散步,且式子满足如下关系:
[0097]
在x方向上:
[0098]
在y方向上:
[0099]
2)sobel算子:
[0100][0101]
其中,g表示的是该点灰度的大小,θ表示梯度的方向,gx及gy分别代表经横向及纵向边缘检测的图像灰度值。
[0102]
步骤a2,通过yolov3目标检测网络模型对对象的外围物体及窗户等目标进行检测,进而完善空间对象模型的外围物体以及窗户等目标的建模精确度。
[0103]
其中,以对于窗户的目标检测为例进行模拟:
[0104]
yolov3目标检测在实施时需要经过三个步骤,包括从特征获取预测结果、预测结果的解码、对预测出的边界框得分排序与非极大抑制筛选;其中在进行预测结果的解码后可以得出最后显示的边界框,使用的公式如下:
[0105]bx
=σ(t
x
)+c
x
[0106]by
=σ(ty)+cy[0107][0108][0109]
pr(object)*iou)(b,object)=σ(to)
[0110]cx
、cy表示该预设边框所在网格的左上角距离最左上角在x轴方向和y轴方向上相差的格子数;pw、ph表示先验框的宽和高;t
x
、ty表示目标中心点相对于该预设边框所在网格左上角的在x轴方向和y轴方向上的偏移量;tw、th分别表示预测边框的宽和高;σ表示激活函数;pr(object)表示先验框是否有对象的概率;iou表示交并比。
[0111]
通过目标检测后得到某一检测对象的数据结果:窗户框约1.2米,长约2米。即一扇窗户的面积约为2.4平方米。所有窗户面积(计算过程中对特殊面积的窗户进行单独计算)为1713.6平方米。
[0112]
步骤a3,将完成对象分析后的数据导入数据库并根据地形、结构、材料等相关数据进行集成,反应其实体的真实状态,最后将这些信息导入实时数据库作为模型优化的数据资源。
[0113]
2.基于深度学习的三维重建优化方法:
[0114]
步骤b1,基于图像识别的三维重建方法:
[0115]
首先基于深度学习算法,对mvs、cas-mvsnet、meshlab等不同的稀疏点云修复的建模结果进行比较,在运行时间、图片数量要求、修复难度等方面进行综合比较后计算出mvs算法更适用于户外实体的重建。然后通过不断更新相机的角度与位置得到一系列相邻场景的多视角连续图像;
[0116]
在进行位置计算时,其中摄像机坐标系与世界坐标系之间的关系可以用旋转矩阵r和平移矩阵t表示,经此过程可将各点坐标统一到同一坐标系中,其过程如下:
[0117][0118]
它的齐次坐标可以表示成:
[0119][0120]
其中xc、yc、zc表示的在摄像机坐标系中图像内任意一点研究对象的坐标;xw、yw、zw表示在世界坐标系中图像内所选取的研究对象经转换后的坐标,t为三位平移向量:
[0121]
t=[t
x t
y tz]
t
,0=[0 0 0]
t
[0122]
其中t
x
、ty、tz指的是在x轴,y轴,z轴方向上所需平移的距离;
[0123]
旋转矩阵r为3
×
3的正交矩阵,其元素满足:
[0124][0125]
r表示的是矩阵r中的各个元素。
[0126]
步骤b2,利用增量式sfm对采集到的大量二维图片信息进行迭代处理获得图像信息并进行相应的特征匹配,通过所得到的数据可以对现实中的物进行初步的稀疏三维重建,并获得对不同相机的位姿、内参以及它们的共视关系;
[0127]
其中,在使用sfm进行稀疏三维重建的特征匹配时,使用的公式如下:
[0128]fnn
=arg min||f
d-f'd||
2 f'∈f(j)
[0129]
其中,f(j)表示图像j周围的特征点;f
nn
表示最邻近的特征向量;fd表示实际上图片上的点;f'd表示所选取图像的某一特征点;
[0130]
步骤b3,利用mvs进行密集点云的获取,为使图像不会有较大的视角估计差距,对其进行去畸变处理,以此来减小误差;之后经过视角选择输入已经特征匹配完成的多张影像图作为参考影像和候选集,完成深度特征提取;通过aa-rmvsnet利用平面扫描算法构造参考影响的匹配代价并用特征体表示;通过构造由长、宽与参考影像长宽一样的代价图在深度方向连接而成的三维结构的代价体完成aa-rmvsnet的代价累积;再由神经网络的直接学习完成从代价到深度值的学习过程,进而实现深度估计;提取三维图像中具有一致性的点实现稠密重建;
[0131]
其中在进行匹配代价的构造过程中,使用下列式子来完成:
[0132][0133]
其中ncc表示影像间光学一致性的测度;l表示图像的特征;表示最优拟合平面的深度,表示最优拟合平面的法向量;表示对于特征i、i的参考影响的ncc。
[0134]
2)基于激光扫描的三维重建方法:
[0135]
步骤c1,使用scan station c10三维激光扫描仪或其他地面型三维激光扫描仪器对空间对象进行数据采集,从而获得激光点云数据或者dsm数据;
[0136]
其中通用的激光雷达方程如下:
[0137][0138]
其中:pr是接收回波功率,p
t
是发射激光功率,pb是背景辐射和噪声功率;r是目标与雷达之间距离,θ
t
是发射天线视场角/光束发散角;ρ是目标表面对激光的反射率,da是目标表面面元,ω是目标光散射立体角;d是接收天线孔径/直径,η
atm
是传输介质的双程透过率,η
sys
是光学系统透过率
[0139]
步骤c2,对所获取的点云数据进行预处理;运用中值滤波、均值滤波和高斯滤波等方法对有序或部分有序的点云去噪,运用拉普拉斯算法对散乱点云数据去噪;对由于被遮挡、测量设备的限制等因素而无法测量的区域进行点云空洞修补;对点云数据进行压缩和
配准从而完成预处理;
[0140]
其中在对部分有序点云数据使用高斯滤波方法时,对于点云数据我们将通过高斯模糊来实现对每个点权重的计算,其计算公式如下:
[0141][0142]
其中,g(x,y)指的是所选取点云中的一点的权重;x指的时所选取点云中的一点在坐标系中的横坐标,y指的是所选取点云中的一点在空间坐标系中的纵坐标,μ是x的均值,σ是x的方差;
[0143]
在运用拉普拉斯算法对散乱点云数据去噪时,通过如下方法对点云数据进行拉普拉斯滤波,其中x,y指的是点的横坐标以及纵坐标:
[0144]
1)x方向和y方向的一次微分分别按照以下式子计算:
[0145]
ix(x,y)=(x+1)-xi(x+1,y)-i(x,y)=i(x+1,y)-i(x,y)
[0146]
iy(x,y)=(y+1)-yi(x,y+1)-i(x,y)=i(x,y+1)-i(x,y)
[0147]
2)二次微分按照以下式子计算:
[0148][0149]
3)最后,拉普拉斯算法去噪的表达式如下:
[0150][0151]
其中指的是对点云中所选取的一点运用拉普拉斯去噪算法;
[0152]
步骤c3,利用目标点及周围点的分布均匀性来判断边界点实现边界点的检测,采用基于点云平均曲率的方法来计算点的局部特征权值实现对尖锐点的提取完成尖锐点的检测;然后利用法向量和距离约束的平面分割方法对获取的点云数据或dsm数据进行数据分割,完成对空间对象的建模。
[0153]
其中利用法向量进行点云分割的公式如下:
[0154][0155]
其中表示点p的法向量;表示邻域内点pi的法向量;r是设置的领域半径大小;n表示邻域内所有点云的个数;表示点p的法向量与pi的的法向量做差并取二范数。
[0156]
3)将上述两种方法所得模型与数据库数据结合并进行优化:
[0157]
步骤d1,利用多源数据采集设备对空间对象进行全方位的数据采集,并将获取到的最新数据传输导入模型数据库,通过仿真过程,在虚拟空间中完成空间对象虚拟映射,包括:
[0158]
基于空间对象各层面的多源数据采集设备,对空间对象进行全方位的数据采集,结合采集到的多源数据与模型数据库,优化空间对象的三维重建模型。将采集到的多源数据在三维场景中进行融合匹配,包括坐标转换和数据配准,将bim、倾斜摄影模型、点云等数据与其他gis数据统一到一个坐标系中。同时能够实现各种三维数据的坐标投影转换,包
括:模型、栅格、影像、点云、倾斜摄影模型等。实现数据融合充分利用。
[0159]
步骤d2,通过挖掘物理实体数据、虚拟模型数据、服务数据、领域知识等多样化数据间的关联关系,支持对更深层知识的提取。通过对上述数据进行预处理,包括数据滤波、异常数据与无关数据剔除、数据特征提取等。之后将处理后的数据进行时空配准,如利用最小二乘配准法使数据在时间维度同步、在空间处于同一坐标系。基于皮尔逊相关性分析方法、k-means、apriori算法等最大程度地挖掘配准后数据间的时空关联性。在此基础上,通过统计法、聚类法、分类法等进一步实现知识推理,对模型预测结果进行加权融合,最后将数字孪生模型得到的数据存储在数据库中。
[0160]
步骤d3,通过结合采集到的多源数据与模型数据库,将系统仿真、实时计算、大数据管理与分析、数据可视化等过程融为一体,使通过三维重建得到的空间对象模型能够与采集到的最新多源数据在虚拟空间快速准确的结合配准,将模型进行全方位优化修正。即基于系统结构、设计资料,建立所研究对象的模型并保留关键性能源设备及系统参数。统一建模并存储相关数据,使数据结构、格式、类型、接口等标准化。常用的建模语言包括统一建模言(uml)、系统建模语言(sysml)等。此外,基于范畴理论的数学方法可支持数据建模、互操作及集成。在此基础上,对数据模型进行存储,并实现数据归档、索引访问等功能。通过智能自演进、自适应的学习能力,能够随数据的积累不断提升模型的精度。
[0161]
利用整理后的数据,一方面对系统整体的性能参数和设备特性参数进行辨识,得到能够适用于各模型的优化数据;另一方面通过聚类存入历史数据库,用于后续指令反馈过程中相似模型的识别。
[0162]
为了验证本发明在模型方面的优化效果,本发明对对象分析获取的图像稠密点云数据与三维重建利用激光点云获取的模型参数数据中,结合数据库数据进行模型优化,其例子如下:
[0163]
在对某建筑及其坡道的建模实例中应用以上方法,将图像识别以及激光扫描所得数据进行坐标转换以及数据配准然后导入到数据库中并结合数据库数据分析,挖掘各个数据间的关联关系,实现数据的快速准确的结合配准,将模型进行全方位的修正。在模型分析过程中,通过设备检测该建筑工程的220个位置并转化成点云数据导入数据库中进行结合与分析,发现贴合优化后模型的点云结构176个,不符合模型的点云结构的44个,点云数据的保留率仅为80%,其中弧形结构点云数据的保留率仅为60%,占点云数据保留率的91%。相较于其他的建模方式,在进行模型优化之后实现了如下效果:
[0164]
1)使模型中例如窗户的长、宽、位置等的参数值更加精确,不会偏离实际情况较大;
[0165]
2)对建筑物中较为不规律的结构,如曲面,不规则三角形墙角等位置的建模更加精确。
[0166]
具体实现中,本技术提供计算机存储介质以及对应的数据处理单元,其中,该计算机存储介质能够存储计算机程序,所述计算机程序通过数据处理单元执行时可运行本发明提供的一种基于人工智能的空间对象分析及建模方法的发明内容以及各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等。
[0167]
本领域的技术人员可以清楚地了解到本发明实施例中的技术方案可借助计算机
程序以及其对应的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机程序即软件产品的形式体现出来,该计算机程序软件产品可以存储在存储介质中,包括若干指令用以使得一台包含数据处理单元的设备(可以是个人计算机,服务器,单片机。muu或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
[0168]
本发明提供了一种基于人工智能的空间对象分析及建模方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。