一种基于神经网络的多次激发平面回波磁共振成像方法

文档序号:24981383发布日期:2021-05-07 22:56阅读:253来源:国知局
一种基于神经网络的多次激发平面回波磁共振成像方法

本发明属于磁共振成像技术领域,具体涉及基于深度学习神经网络的多次激发平面回波磁共振重建方法。



背景技术:

回波平面成像(echoplanarimaging,epi)包括单次(single-shot,ssh)和多次epi(multi-shot,msh),因其高效率和对运动不敏感等优点,目前已经是扩散加权成像(diffusionweightedimaging,dwi),磁共振(magneticresonanceimaging,mri)和心脏成像的广泛使用的采集序列。基于多次激发平面回波(multi-shotechoplanarimaging,msh-epi)的技术,解决掉了单次平面回波的空间分辨率低,几何失真严重,图像模糊和伪影明显等问题,则在高分辨率的扩散加权等高空间分辨率需求的应用上有非常高的应用价值。通过减少每次激发的相位编码步骤,可以以较高的空间分辨率和较小的几何变形观察到精细的解剖信息。

但是,通常不同次激发之间会存在线性和非线性相位变化,而扩散梯度和变速变方向运动的存在则会加剧这种相位差异,进而造成多次激发的图像重建伪像。目前,传统基于灵敏度编码(sense)类的方法都是提高不同次激发间相位估计的准确性来改善重建图像质量。但事实上,这些常规的基于模型的算法无法可靠地估计相位变化,尤其是在场严重不均匀性的地方相位误差更大,而各种改进方法也只是有限的图像分辨率的提高,与此同时长时间的重建时间更使得这些技术在临床应用中不切实际。

基于深度学习神经网络的多次激发平面回波磁共振成像方法是一种新型的磁共振重建技术。由于单次激发数据不存在相位变化,因此用其进行神经网络参数估计,则可以较传统的基于计算模型的欠采样图像重建算法提供更高的准确性和效率。



技术实现要素:

为克服传统的基于模型的多次激发平面回波重建方法存在的上述不足,本发明提供一种基于深度学习神经网络的多次激发平面回波磁共振成像方法。

本发明提供的基于深度学习神经网络的多次激发平面回波磁共振成像方法,利用度学习神经网络,将深度学习应用到多次激发平面回波(msh-epi)图像的混叠校正中,在训练阶段使用无混叠的单次激发平面回波(ssh-epi)图像作为目标;将与多次激发平面回波具有相同欠采样因子和轨迹的混叠的单次激发平面回波(ssh-epi)图像送入神经网络进行训练。相较于传统的基于模型的重建算法(如多路灵敏度编码方法(multiplexedsensitivity-encoding,muse)),本发明提供的方法估计相位精度更高,图像重建结果更加准确,加权定性图像(gsr明显下降,伪影明显减少)和最终dti的量化结果都有很好提高和改进。

具体步骤如下:

步骤1:利用单次激发平面回波(ssh-epi)弥散加权序列对第一批(例如包含30个受试)训练集进行多通道数据采集;

步骤2:使用这些ssh-epi序列的数据,进行msh-epi图像重建的神经网络的训练:

将ssh-epi的数据按照和msh-epi同样的激发次数方式和轨迹进行数据欠采抽取,将每次激发的混叠ssh-epi图像作为神经网络的输入,进行相位估计,其输出对照金标准目标是无混叠伪影的单次激发的弥散加权重建图像;

本发明中,具体神经网络可采用如图1所示结构,由收缩路径(左)和扩张路径(右)组成;收缩路径遵循cnn的典型结构,由两个3×3的卷积层组成,每一层都遵循批标准化(bn)和一个校正的线性单元(relu)函数;然后采用2×2最大池化核,步长为2,进行下采样;类似地,扩展路径中的每一步都包括特征映射的上采样,然后是2×2的上池化核,与收缩路径中相应裁剪的特征映射的连接层,以及两个3×3卷积,每个卷积后面都有一个bn和relu函数;在最后一层,使用1×1卷积,不使用bn和relu;该网络共有23个卷积层;本发明提出的网络有5个表示尺度,从228×228(输入分辨率)到16×16,每个尺度的表示分辨率减半;因此,双帧u-net结构产生了更大的感受野,更有助于捕捉图像的全局信息;

步骤3:将经过上一步神经网络训练好的不同次激发的相位数据和基于sense重建的幅值信息进行合并,最终完成对多次激发成像数据的解混叠过程;参见图2所示;

步骤4:使用多次激发平面回波(msh-epi)弥散加权序列对另一批(例如包含34个受试)训练集进行多通道数据采集;

步骤5:引入msh-epi,进行神经网络的泛化测试:

将msh-epi数据作为神经网络输入,进行网络泛化性能进行测试优化,最终得到较高精度的解混叠图像。

其中,训练集中的每个受试的数据,就弥散加权成像的图像包含有5个b值和16层,就弥散张量扩散成像的图像则包含有24个方向,2个b值和16层。

该网络是用python3.7.0使用tensorflow实现的,训练在nvidiateslap100×4gpu(每个处理器有16gb内存)上执行。卷积层权重由高斯随机分布初始化。训练权值的损失函数定义为标准参考和cnn输出的l2范数。adam用于梯度下降,其学习率为10-4,β为0.90。学习率从每个历元的10−1对数降低到10−3。该网络的epoch数为1000,最小batchsize为50个。整个训练过程大约需要10个小时。

与现有技术相比,本发明具有如下优点:

1、用基于深度学习神经网络方式代替传统的基于数学模型近似求解的方式,能够更加准确的进行相位估计,同时重建速度更快;

2、传统的基于模型的并形成像重建方式,其重建的图像质量和加速倍数会受到g-factor的制约,因此在临床实际最普遍的弥散加权序列中,其加速倍数一般限于2倍。本发明提出的基于神经网络的方法则不受这种模型计算的制约,可以有更高的加速倍数;

3、本发明改进了msh-epi的重建优化,采用临床上最常见的单次激发数据进行模型训练。成熟稳健的训练模型将大大缩减msh-epi的重建时间并提高其重建精度,易于临床上推广和实现。

附图说明

图1为本发明使用的神经网络结构示意图。

图2为为本发明方法的流程图示。

图3为一例淋巴结转移患者结果对比示意图:传统muse(所有上排)和本发明方法(所有下排)估计的相位图的比较。不同b值(2a)和不同扩散方向(2c)的第一次激发的相位估计结果;b=250s/mm2(2b)和相同扩散方向(2d)的4次激发间之间的相位变化。

图4为使用传统muse方法(第一行)、本发明方法(第二行)和ssh-epi(第三行)对msh-epi数据进行重建的代表性结果,其中5个b值来自一名健康志愿者。底部两行是对应的白色框的放大窗口。白色的箭头指向混叠伪影。

具体实施方式

下面,以dwi和dti应用为例,结合附图对本发明的具体实施方式做详细说明,图1为神经网络的多次激发平面回波重建方法的网络结构图,图2为本方法的流程示意图。应当指出的是,在不脱离本发明构思的前提下,对以下步骤的若干变形和改进,都属于本发明保护的范围。

步骤1:将受试者分为两组,其中一组受试者进行头部扫描中常规的ssh-epidwi、ssh-epidti扫描。

步骤2:对另第二组受试者则进行头部扫描中常规的ssh-epidwi、ssh-epidti除外的4次激发的msh-epidwi、msh-epidti加权磁共振影像序列,其中dwi含有0-1000s/mm25个b值,dti使用24个方向。

步骤3:取出第一组受试者的ssh-epidwi和ssh-epidti数据进行网络训练。将对应的ssh-epi数据按照和msh-epi同样的激发次数方式和轨迹进行数据欠采抽取,并每次激发的混叠ssh-epidwi或者dti图像其作为所训练网络的输入,进行相位估计的网络训练,其输出的对照金标准目标图像是无混叠伪影的ssh-epi单次激发的dwi或者dti重建图像,进而可以完成欠采数据的最终重建过程中的相位估计,其精度提高了。

步骤4:将通过上一步神经网络训练好的不同次激发的ssh-epidwi或者dti的相位数据和对应的基于sense重建的幅值信息进行合并,最终完成对欠采样数据的重建解混叠过程,即完成了msh-epi重建过程所需要的网络训练。

步骤5:引入第二组受试者的msh-epidwi或者dti数据进行神经网络的泛化训练和测试,完成最终msh-epi在不同序列上的重建。

步骤6:对第二组受试的msh-epidwi或者dti数据进行传统基于模型的muse重建。

步骤7:步骤5里涉及的第二组受试对应的ssh-epidwi和dti进行重建,同时对比定性和定量分析。计算不同方法在不同b值下的弥散加权图像的伪影信号比(ghost-to-signal-ratio,gsr)以及dti的最终纤维束追踪的差异。其利用步骤3和步骤4训练好的神经网络所进行的步骤5里的msh-epidwi及dti数据图像,发现本发明提供的方法在相位(伪影明显减少,如图3所示)、加权定性图像(gsr明显下降,伪影明显减少,如图3和图4所示)和最终dti的量化结果都有很好提高和改进。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1