一种基于AR医疗导航的动态对象高精度追踪与定位系统的制作方法

文档序号:39222325发布日期:2024-08-28 22:57阅读:17来源:国知局
一种基于AR医疗导航的动态对象高精度追踪与定位系统的制作方法

本发明涉及医疗导航,尤其涉及一种基于ar医疗导航的动态对象高精度追踪与定位系统。


背景技术:

1、在现代医疗手术中,尤其是在复杂的手术操作如脑外科或心脏手术中,精确的导航系统对于提高手术成功率和患者安全至关重要,随着技术的进步,增强现实(ar)技术已被逐步引入手术室,用于实时显示手术区域的详细三维视图以及手术工具的位置,然而,传统的ar手术导航系统往往面临着数据更新滞后、图像与实际视图不同步以及视觉信息在不同光照条件下显示不清晰的问题,这些问题限制了ar技术在手术导航中的应用效果和普及程度。

2、目前的手术导航系统虽然能提供一定的视觉辅助,但在实际操作中,手术对象的微小动态变化往往难以被实时捕捉和精确展示,导致手术精度受到影响,此外,现有系统在动态校准和视觉映射方面的不足,如无法自动调整映射内容的亮度、对比度和颜色,使得医护人员在变化的手术环境中难以获得最佳的视觉体验。

3、因此,开发一种能够实现高精度实时追踪与定位,并提供优化的视觉显示的ar导航系统,对于提升手术安全性和效率,以及扩大ar技术在医疗领域应用的范围,具有极其重要的意义。


技术实现思路

1、基于上述目的,本发明提供了一种基于ar医疗导航的动态对象高精度追踪与定位系统。

2、一种基于ar医疗导航的动态对象高精度追踪与定位系统,包括多角度成像模块、微动态检测模块、数据处理分析模块、动态校准同步模块以及增强视觉映射模块;其中,

3、多角度成像模块:配置多个角度的高分辨率摄像头及深度传感器,用于捕获手术区域内的详细视觉和深度信息,以提供手术对象及其周围环境的三维视图;

4、微动态检测模块:集成高灵敏度振动传感器,用于捕捉和记录手术对象因生理或机械因素产生的微小动态变化,以增强追踪的细节与精度;

5、数据处理分析模块:基于多角度成像模块和微动态检测模块的数据,利用预设的图像处理算法和机器学习技术进行分析,从中提取对象的位置、运动轨迹和行为模式;

6、动态校准同步模块:根据数据处理分析模块提供的信息,调整ar设备显示的视图,确保手术对象在ar视图中的位置与实际手术中的位置完全同步;

7、增强视觉映射模块;将数据处理分析模块及动态校准同步模块的数据结果以视觉叠加的形式呈现在医护人员的ar设备上,过程中通过视觉优化技术,调整映射内容的亮度、对比度和颜色。

8、进一步的,所述多角度成像模块包括配置单元、同步控制单元、数据融合单元以及优化处理单元;其中:

9、配置单元:配置有至少三个角度的高分辨率摄像头和至少两个深度传感器,该摄像头和传感器均等间隔围绕手术区域布置,确保从前、后、左、右及上方的多个视角获取影像,以全面捕获手术区域内的视觉信息;

10、同步控制单元:用于控制所有高分辨率摄像头和深度传感器的同步操作,具体通过时序控制确保数据的同步采集,采用时间同步协议,确保所有设备的内部时钟在微秒级别的误差范围内同步,每个设备将根据以下公式调整采集时间点,该整采集时间点公式为:

11、,其中,是原计划的数据采集时间,是从时间服务器接收到的时间校正值;

12、数据融合单元:用于将来自不同角度摄像头和深度传感器的数据进行融合,具体利用立体视觉匹配和深度学习模型,对捕获的图像和深度信息进行分析和合成,以生成手术区域及其对象的精确三维视图;

13、优化处理单元:对融合后的数据进行优化处理,消除视觉畸变或深度不一致的情况。

14、进一步的,所述数据融合单元包括:

15、立体视觉匹配:数据融合单元采用立体视觉匹配技术对从多角度成像模块捕获的图像进行分析,基于每对摄像头捕获的图像对,通过寻找相同特征点的位移来计算深度信息,视差通过以下公式计算:,其中,和分别是在左右两个摄像头图像中相同特征点的横坐标;随后利用三角测量原理,计算出每个点的实际深度,公式为:,其中,是摄像头的焦距,是摄像头之间的基线距离;

16、深度学习模型应用:数据融合单元还应用深度学习模型来增强图像深度信息的准确性和完整性,具体利用卷积神经网络对图像的高级特征进行学习和识别,卷积神经网络模型公式表示为:,其中,表示权重矩阵,表示卷积操作,是偏置项,relu为激活函数,通过训练得到的模型预测图像中每个像素点的深度,从而生成深度图;

17、数据合成:最后利用加权平均方法将立体视觉匹配和卷积神经网络模型生成的深度数据进行合成,以形成完整的三维视图。

18、进一步的,所述优化处理单元包括:

19、畸变校正:优化处理单元首先对由多角度成像模块捕获的图像进行畸变校正,基于摄像头镜头引起的径向和切向畸变,将使用以下畸变校正公式进行修正;,

20、,

21、其中,和是畸变校正后的图像坐标;和这是畸变校正前,直接从摄像头捕获的原始图像坐标;为图像中点到图像中心的径向距离;为畸变系数;

22、深度一致性校正:接下来,优化处理单元对深度数据进行一致性校正,以识别和校正由于视角差异或传感器误差导致的深度不一致,通过比较从不同角度捕获的同一区域的深度数据,并应用加权平均法来调整深度值,公式为:

23、,其中,为最终调整后的深度值;为第个角度摄像头测得的深度值;为基于第个角度的可靠性分配的权重;

24、高频细节增强:最后应用锐化算法来增强图像边缘和纹理,具体公式为;

25、,其中,为增强后的图像;为原始图像;为应用高斯模糊后的图像;为增强系数,用于调节高频细节增强的程度。

26、进一步的,所述微动态检测模块包括传感器配置单元、信号处理单元以及数据分析单元;其中:

27、传感器配置单元:部署多个高灵敏度振动传感器于手术区域,包括手术台和手术工具上,该振动传感器用于捕捉由生理因素和机械因素引起的微小动态变化,用于检测频率范围从几赫兹到数千赫兹的微小振动;

28、信号处理单元:接收来自振动传感器的信号,并进行初步滤波处理以排除环境噪音和非手术相关的振动,具体使用数字带通滤波器保留与手术过程的振动频段,滤波公式为:,其中,这是滤波后的输出信号,表示时间时刻经过带通滤波处理后的信号值;为输入信号,代表原始从振动传感器收集的数据;和为这两个参数分别是带通滤波器的中心频率和带宽;

29、数据分析单元:对滤波后的信号进行深入分析,采用快速傅里叶变换来转换信号从时间域到频率域,具体公式为:,其中,为表示在频率域中的信号;为时间域中的原始信号值,是采样点索引;为样本点数量。

30、进一步的,所述数据处理分析模块包括特征提取单元、动态数据分析单元以及行为模式识别单元;其中:

31、特征提取单元:使用预设的图像处理算法,包括边缘检测和特征点识别,从由数据融合单元输出的融合后的三维视图中提取视觉特征,该视觉特征包括手术对象的标志点、边界和结构信息,该提取视觉特征是定位和跟踪手术对象的基础;

32、动态数据分析单元:结合微动态检测模块提供的数据,使用支持向量机的机器学习算法,分析手术对象的运动行为和动态模式,识别对象的运动轨迹、速度和行为模式,包括周期性移动或突发动作;

33、行为模式识别单元:基于特征提取单元和动态数据分析单元获取的数据,应用模式识别算法来识别和分类手术对象的具体行为,并提供实时的决策支持给手术团队。

34、进一步的,所述动态数据分析单元包括:

35、数据预处理:先接收来自微动态检测模块的数据,包括频率、振幅和时间戳,将该数据进行归一化处理以准备的机器学习分析,归一化处理是将数据调整到统一的尺度,以减少数据中的偏差和噪声;

36、特征提取:从预处理后的数据中提取有用的特征,包括振动频率的峰值、平均能量以及时间窗内的振动模式;

37、支持向量机分类器:利用支持向量机进行模式识别和分类,支持向量机用于区分不同类型的手术对象运动行为,基于以下计算公式进行优化:;

38、,其中,是决策面的法向量,是偏置项,是松弛变量,是正则化参数,是特征向量,是类标签;

39、动态模式识别:基于svm的输出,识别和分类手术对象的具体动态模式,包括稳定运动、突发快速动作或周期性运动。

40、进一步的,所述行为模式识别单元包括:

41、数据整合:首先从特征提取和动态数据分析接收数据,特征提取单元提供了手术对象的视觉特征,包括边界和标志点的位置,而动态数据分析提供了对象的运动特征,包括速度和运动轨迹,将接收的数据整合成综合特征向量,用于后续的模式识别;

42、模式识别算法选择:选择合适的模式识别算法来处理整合后的特征向量,合适的模式识别算法包括决策树、随机森林或神经网络;

43、训练与分类:使用选定的模式识别算法对手术对象的行为模式进行训练和分类;

44、行为模式输出单元:经过训练的模式识别模型将输入的特征向量分类为一种或多种行为模式,包括稳定运动、突发快速动作或周期性运动,用于辅助手术决策和提高手术安全性。

45、进一步的,所述动态校准同步模块包括数据接收单元、视图更新单元、同步控制单元以及校准验证单元;其中:

46、数据接收单元:用于从数据处理分析模块接收关于手术对象的精确位置、运动轨迹和行为模式的信息,包括对象的三维坐标和预测的移动路径,以确保同步模块拥有实时更新的手术对象状态;

47、视图更新单元:基于接收到的数据,计算视图更新,具体利用变换矩阵,将手术对象的实际位置映射到ar设备的视图空间,变换矩阵的计算公式如下:

48、,其中,是手术对象在实际手术空间中的三维坐标向量,是从实际空间到ar设备视图空间的变换矩阵,是映射后的视图空间坐标;

49、同步控制单元:用于控制ar设备的视图实时更新,确保视图的同步性和准确性,具体使用高频更新策略,以适应手术对象的动态变化,保证手术对象在ar视图中的位置与实际手术中的位置完全同步,同步算法考虑到了数据传输和处理的延迟,调整视图更新的时序,确保最小化视觉滞后;

50、校准验证单元:用于验证校准的准确性,通过与手术区域中安置的标记点进行比较,检测ar视图的显示与实际位置的偏差,当偏差超过预设阈值时,将自动重新校准,调整变换矩阵以减少误差。

51、进一步的,所述增强视觉映射模块包括映射数据接收单元、视觉叠加处理单元、视觉优化单元以及反馈调整单元;其中:

52、映射数据接收单元:接收来自数据处理分析模块和动态校准同步模块的数据结果,包括手术对象的精确位置、运动轨迹,以及手术的视觉信息;

53、视觉叠加处理单元:使用图形处理技术将接收到的数据转换成适用于ar设备显示的格式,通过软件算法将三维数据与二维图像进行合成,创建能够在ar眼镜或屏幕上显示的视觉叠加效果,包括将数据转换为图形层,然后与实时视频或图像数据层进行合成;

54、视觉优化单元:用于调整叠加视图的视觉质量,包括亮度、对比度和颜色,具体通过动态调整算法完成,确保叠加图像在不同的环境光条件下都能清晰可见,调整算法公式为:,其中,是原始图像数据,和分别是用于调整亮度和对比度的系数;视觉优化单元还包括颜色校正算法,用于调整图像色彩以适配手术室内的照明条件,增强视觉效果的自然性和辨识度;

55、反馈调整单元:用于根据医护人员的反馈以及环境传感器提供的数据,实时调整映射内容的视觉参数。

56、本发明的有益效果:

57、本发明,通过集成先进的动态数据分析和校准同步技术,能够实时准确地追踪和显示手术对象的位置及其动态变化,这不仅极大地提高了手术导航的精度,也通过精确的视觉辅助减少了手术过程中的错误和风险,从而显著提高了手术的安全性。

58、本发明,通过增强视觉映射模块,能够根据不同的手术环境自动调整叠加图像的亮度、对比度和颜色,这保证了在各种光照条件下医护人员都能获得清晰和准确的视觉信息,进一步优化了手术过程中的视觉体验,减少了由于视觉信息不佳导致的手术延误或错误。

59、本发明,通过实时动态跟踪和视觉信息的高效处理,加快了手术流程,减少了手术时间,系统的高响应性和准确性使得手术团队能够迅速做出决策,有效应对手术中出现的各种复杂情况,这不仅提升了手术效率,也增加了手术过程的流畅性,从而改善了患者的整体治疗体验。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1