一种基于压缩感知的核磁共振成像方法与流程

文档序号:26842903发布日期:2021-10-08 23:33阅读:309来源:国知局
一种基于压缩感知的核磁共振成像方法与流程

1.本发明属于核磁共振技术领域,具体涉及一种基于压缩感知的核磁共振成像方法。


背景技术:

2.核磁共振成像(mri)作为一种无损伤的诊断手段包含了丰富的信息,具有x

ct等成像方法无法比拟的优点。然而,核磁共振成像的时间需要数分钟,不仅效率低下,且容易因患者改变体位导致测量结果的不准确。在保证一定图像质量的前提下,如何加快mr成像速度一直是一个值得研究的问题。
3.为克服磁共振成像扫描时间长的缺陷,近年来,压缩感知理论为核磁共振成像带来了新的突破,得到了研究人员的广泛关注。具体而言,采集k空间的亚采样数据,对k空间的亚采样数据采用压缩感知算法进行重建,从而实现核磁共振成像。
4.然而,压缩感知算法通常是解决优化问题的算法,需要数次的迭代,不仅算法复杂度高,且算法迭代时间长,影响成像效率。也就是说,现有技术虽然解决了扫描采样时的效率问题,但整个成像时间仍然比较长。
5.并且,发明人发现,如果亚采样数据相对于全采样数据的压缩率比较高,压缩感知算法的重建性能会迅速下降,影响成像质量。


技术实现要素:

6.为了解决现有技术中存在的上述问题,本发明提供了一种应用于无线通信系统的信息传输方法。本发明要解决的技术问题通过以下技术方案实现:
7.第一方面,本发明实施例提供了一种基于压缩感知的核磁共振成像方法,包括:
8.在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据;
9.将所述亚采样数据输入至预设的深度神经网络模型,以使所述深度神经网络模型对所述亚采样数据进行数据重建,并输出核磁共振图像;
10.其中,所述深度神经网络模型是基于多个样本亚采样数据训练获得的,所述样本亚采样数据是利用一随机生成的高斯矩阵对样本全采样数据进行压缩获得的;所述高斯矩阵为所述采样矩阵;
11.所述深度神经网络模型,包括依次连接的四个数据重建模块、加法模块以及卷积模块;其中,每个所述数据重建模块均包括依次连接的第一卷积子模块、全连接子模块以及第二卷积子模块;所述全连接子模块中包含有至少两个相邻连接的全连接层;所述第一卷积子模块中的卷积层的卷积核大小不低于5*5;所述加法模块用于将第一个数据重建模块的输入和最后一个数据重建模块的输出相加。
12.可选地,所述全连接子模块,包括依次连接的第一reshape层、第一全连接单元、第二全连接单元、第三全连接单元以及第二reshape层;
13.其中,所述第一全连接单元、所述第二全连接单元以及所述第三全连接单元的神
经元个数比例为1:2:4。
14.可选地,所述第一全连接单元、所述第二全连接单元以及所述第三全连接单元的神经元个数分别为:512、1024、2048。
15.可选地,所述第一卷积子模块,包括依次连接的第一卷积单元和第二卷积单元;
16.所述第二卷积子模块,包括第三卷积单元;
17.所述卷积模块,包括第四卷积单元;
18.其中,所述第一卷积单元、所述第二卷积单元、所述第三卷积单元以及所述第四卷积单元均包括:卷积层、bn层以及激活层;所述第一卷积单元的卷积层的卷积核大小为7*7,所述第二卷积单元的卷积层的卷积核大小为5*5;所述第三卷积单元的卷积层的卷积核大小为3*3;所述第四卷积单元的卷积层的卷积核大小为3*3。
19.可选地,所述深度神经网络模型还包括:位于第一个所述数据重建模块之前的第三reshape层;
20.所述第三reshape层,用于将所述亚采样数据转换为与所述第一卷积子模块的输入端匹配的形式。
21.可选地,所述深度神经网络模型包括多个,不同深度神经网络模型在训练阶段使用的高斯矩阵、样本全采样数据对应的成像部位不同,以使不同深度神经网络模型在使用阶段适用不同的成像部位;
22.所述方法还包括:
23.在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据之前,确定成像部位,并确定该成像部位对应的采样矩阵。
24.可选地,所述深度神经网络模型是按照下述方式训练获得的;
25.获取任一成像部位的多个样本全采样数据;
26.随机生成一高斯矩阵,并使用所述高斯矩阵对所述样本全采样数据进行压缩,得到样本亚采样数据;
27.将所述样本亚采样数据输入至预设的深度神经网络,以使所述深度神经网络输出对应的核磁共振图像;
28.根据所述样本亚采样数据对应的样本全采样数据和核磁共振图像计算所述深度神经网络的损失值;
29.若所述损失值不小于阈值,基于adam优化算法调整所述深度神经网络的网络参数,继续训练;
30.若所述损失值小于阈值,结束训练,将当前的深度神经网络作为所述深度神经网络模型,并将生成的高斯矩阵、当前得到的深度神经网络模型以及对应的成像部位进行关联。
31.第二方面,本发明提供了一种基于压缩感知的核磁共振成像装置,包括:
32.采样模块,用于按照预设的采样矩阵采集k空间的亚采样数据;
33.成像模块,用于将所述亚采样数据输入至预设的深度神经网络模型,以使所述深度神经网络模型对所述亚采样数据进行数据重建,并输出核磁共振图像;
34.其中,所述深度神经网络模型是基于多个样本亚采样数据训练获得的,所述样本亚采样数据是利用一随机生成的高斯矩阵对样本全采样数据进行压缩获得的;所述高斯矩
阵为所述采样矩阵;
35.所述深度神经网络模型,包括依次连接的四个数据重建模块、加法模块以及卷积模块;其中,每个所述数据重建模块均包括依次连接的第一卷积子模块、全连接子模块以及第二卷积子模块;所述全连接子模块中包含有至少两个相邻连接的全连接层;所述第一卷积子模块中的卷积层的卷积核大小不低于5*5;所述加法模块用于将第一个数据重建模块的输入和最后一个数据重建模块的输出相加。
36.可选地,所述全连接子模块,包括依次连接的第一reshape层、第一全连接单元、第二全连接单元、第三全连接单元以及第二reshape层;
37.其中,所述第一全连接单元、所述第二全连接单元以及所述第三全连接单元的神经元个数比例为1:2:4。
38.可选地,所述第一全连接单元、所述第二全连接单元以及所述第三全连接单元的神经元个数分别为:512、1024、2048
39.可选地,所述第一卷积子模块,包括依次连接的第一卷积单元和第二卷积单元;
40.所述第二卷积子模块,包括第三卷积单元;
41.所述卷积模块,包括第四卷积单元;
42.其中,所述第一卷积单元、所述第二卷积单元、所述第三卷积单元以及所述第四卷积单元均包括:卷积层、bn层以及激活层;所述第一卷积单元的卷积层的卷积核大小为7*7,所述第二卷积单元的卷积层的卷积核大小为5*5;所述第三卷积单元的卷积层的卷积核大小为3*3;所述第四卷积单元的卷积层的卷积核大小为3*3。
43.可选地,所述深度神经网络模型还包括:位于第一个所述数据重建模块之前的第三reshape层;
44.所述第三reshape层,用于将所述亚采样数据转换为与所述第一卷积子模块的输入端匹配的形式。
45.可选地,所述深度神经网络模型包括多个,不同深度神经网络模型在训练阶段使用的高斯矩阵、样本全采样数据对应的成像部位不同,以使不同深度神经网络模型在使用阶段适用不同的成像部位;
46.所述装置还包括:
47.确定模块,用于在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据之前,确定成像部位,并确定该成像部位对应的采样矩阵。
48.可选地,所述深度神经网络模型是按照下述方式训练获得的;
49.获取任一成像部位的多个样本全采样数据;
50.随机生成一高斯矩阵,并使用所述高斯矩阵对所述样本全采样数据进行压缩,得到样本亚采样数据;
51.将所述样本亚采样数据输入至预设的深度神经网络,以使所述深度神经网络输出对应的核磁共振图像;
52.根据所述样本亚采样数据对应的样本全采样数据和核磁共振图像计算所述深度神经网络的损失值;
53.若所述损失值不小于阈值,基于adam优化算法调整所述深度神经网络的网络参数,继续训练;
54.若所述损失值小于阈值,结束训练,将当前的深度神经网络作为所述深度神经网络模型,并将生成的高斯矩阵、当前得到的深度神经网络模型以及对应的成像部位进行关联。
55.本发明的有益效果:
56.本发明提供的基于压缩感知的核磁共振成像方法中,在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据,并使用深度神经网络模型来对亚采样数据进行数据重建,该采样矩阵为一高斯矩阵;也就是说,本发明采用高斯矩阵来对成像目标进行数据采样,相当于采用高斯矩阵来对成像目标的全采样数据进行了压缩;在数据重建阶段使用了一个预先训练完成的深度神经网络模型来实现数据重建,相较于用压缩感知算法来实现数据重建的方式而言,极大地提高了成像效率。
57.并且,本发明中使用的深度神经网络模型包括依次连接的四个数据重建模块、加法模块以及卷积模块;每个数据重建模块均包括依次连接的第一卷积子模块、全连接子模块以及第二卷积子模块;其中,全连接子模块中包含有至少两个相邻连接的全连接层;第一卷积子模块中的卷积层的卷积核大小不低于5*5;由此可见,本发明采用了一个深度更深的神经网络来从亚采样数据中恢复出成像目标更多的信息;在高压缩率的情况下,即使因亚采样丢掉了很多信息,采用该深度神经网络模型也可以对信息进行有效的恢复与重建。其中,为了使深度神经网络模型具有更强的信息恢复性能,本发明在深度神经网络模型的每个数据重建模块中增设了全连接子模块,该全连接子模块中包含有至少两个相邻连接的全连接层;由于相邻的全连接层之间每个神经元都有连接,能够从输入到其中的特征里获取更为全面的有用信息,故而增设该全连接子模块可以使深度神经网络模型具有更强的信息恢复性能。
58.以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
59.图1是本发明实施例提供的一种基于压缩感知的核磁共振成像方法的流程示意图;
60.图2是本发明实施例中使用的深度神经网络模型的结构示意图;
61.图3是图2所示深度神经网络模型中的数据重建模块的结构示意图;
62.图4是对本发明实施例进行仿真验证时具体使用的一个深度神经网络模型的结构示意图;
63.图5是本发明实施例提供的一种基于压缩感知的核磁共振成像装置的结构示意图。
具体实施方式
64.下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
65.为了提高核磁共振成像效率,并确保在较高的数据压缩率的前提下获得较好的核磁共振成像质量,本发明实施例提供了一种基于压缩感知的核磁共振成像方法。参见图1所示,该方法包括以下步骤:
66.s1:在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据。
67.具体的,如果对成像目标进行全采样,则全采样数据可以用m行、n列的矩阵来表示。该步骤采用n行、m列的矩阵采样来对成像目标进行亚采样,m<m。这样,按照采样矩阵进行采样得到的亚采样数据为m行、m列的矩阵。由此可见亚采样数据相对于全采样数据是压缩过的。
68.s2:将亚采样数据输入至预设的深度神经网络模型,以使该深度神经网络模型对亚采样数据进行数据重建,并输出核磁共振图像。
69.其中,该深度神经网络模型是基于多个样本亚采样数据训练获得的,这些样本亚采样数据是利用一随机生成的高斯矩阵对样本全采样数据进行压缩获得的;该高斯矩阵即是步骤s1中使用的采样矩阵。
70.参见图2所示,该深度神经网络模型,包括依次连接的四个数据重建模块10、加法模块10以及卷积模块30;其中,每个数据重建模块10均包括依次连接的第一卷积子模块101、全连接子模块102以及第二卷积子模块103;全连接子模块102中包含有至少两个相邻连接的全连接层;第一卷积子模块101中的卷积层的卷积核大小不低于5*5;加法模块20用于将第一个数据重建模块10的输入和最后一个数据重建模块10的输出相加。
71.其中,该深度神经网络模型中,四个数据重建模块10来对输入的亚采样数据进行重建;然后,通过加法模块20把第一个数据重建模块10的输入与最后一个数据重建模块10的输出相加,由此,四个数据重建模块10以及加法模块20形成了一个较大深度的残差网络。然后,卷积模块30从该残差网络的输出结果中提取核磁共振图像。
72.当亚采样数据相对于全采样数据的压缩率(cr)比较低的时候,如cr等于4的时候,采样过程不会丢失掉很多有用信息,因此使用一般的卷积神经网络是足够捕获特征并重建信息的。但是,当cr很高的时候,比如cr等于64的时候,采样过程丢失掉了很多的有用信息,使用一般的卷积神经网络难以实现信息的重建。为了解决这一问题,本发明实施例采用了一个深度更深的神经网络来对信息进行有效的恢复与重建。其中,为了使深度神经网络模型具有更强的信息恢复性能,本发明实施例在深度神经网络模型的每个数据重建模块中增设了全连接子模块,该全连接子模块中包含有至少两个相邻连接的全连接层;由于相邻的全连接层之间每个神经元都有连接,能够从输入到其中的特征里获取更为全面的有用信息,故而增设该全连接子模块可以使深度神经网络模型具有更强的信息恢复性能。
73.下面对深度神经网络模型的具体网络结构进行举例说明。参见图3所示,该深度神经网络模型中,全连接子模块102可以包括依次连接的第一reshape层、第一全连接单元、第二全连接单元、第三全连接单元以及第二reshape层。
74.其中,第一全连接单元、第二全连接单元以及第三全连接单元的神经元个数比例为1:2:4。每个全连接单元均包括全连接层和激活层;激活层采用sigmoid函数作为激活函数。
75.由此,每个数据重建模块中都包含了三个依次相邻连接的全连接层,能够从输入到该数据重建模块中的特征里获取更为全面的有用信息,故而在深度神经网络模型中增设这4*3个全连接层可以使该深度神经网络模型具有更强的信息恢复性能,达到更好的成像效果。
76.可选地,在一种实现方式中,第一全连接单元、第二全连接单元以及第三全连接单
元的神经元个数分别为:512、1024、2048。
77.可选地,该深度神经网络模型中,第一卷积子模块101可以包括依次连接的第一卷积单元和第二卷积单元;第二卷积子模块103,包括第三卷积单元;卷积模块30,包括第四卷积单元。
78.其中,第一卷积单元、第二卷积单元、第三卷积单元以及第四卷积单元均包括:卷积层、bn层以及激活层;第一卷积单元的卷积层的卷积核大小为7*7,第二卷积单元的卷积层的卷积核大小为5*5;第三卷积单元的卷积层的卷积核大小为3*3;第四卷积单元的卷积层的卷积核大小为3*3。其中,激活层可以采用relu函数。或者,激活层也可以采用wish函数作为激活函数。这里,采用swish函数作为各卷积层的激活函数,可以减少深度神经网络模型因较大的深度而产生梯度消失的情况。
79.在另一种实现方式中,第一卷积单元和第二卷积单元的卷积层的卷积核大小均可以为7*7。
80.本发明实施例中,采用卷积核大小不低于5*5即更大卷积核的卷积单元,主要是为了使用更大的卷积核来提取更多的非0特征,从而更好地实现核磁共振成像。
81.可选地,如果核磁共振设备直接采样的亚采样数据的形式与深度神经网络的输入不匹配;则本发明实施例使用的深度神经网络模型还可以包括位于第一个数据重建模块之前的第三reshape层;该第三reshape层,用于将亚采样数据转换为与数据重建模块中的第一卷积子模块的输入端匹配的形式。
82.在一个实施例中,本发明实施例使用的深度神经网络模型可以包括多个,不同深度神经网络模型在训练阶段使用的高斯矩阵、样本全采样数据对应的成像部位不同,以使不同深度神经网络模型在使用阶段适用不同的成像部位。
83.相应的,本发明实施例提供的基于压缩感知的核磁共振成像方法还可以包括:
84.在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据之前,确定成像部位,并确定该成像部位对应的采样矩阵。
85.举例而言,假设核磁共振检查分头部核磁共振检查和腹部核磁共振检查两种。则预先可以训练两个深度神经网络模型:一个深度神经网络模型用头部的样本全采样数据来训练,另一个深度神经网络模型用腹部的样本全采样数据来训练;并且,训练这两个深度神经网络模型时使用的高斯矩阵不同,这一点容易做到,因为高斯矩阵都是随机生成的。
86.其中,对应任一成像部位的深度神经网络模型可以按照下述方式训练获得:
87.(1)获取该成像部位的多个样本全采样数据。
88.(2)随机生成一高斯矩阵,并使用该高斯矩阵对样本全采样数据进行压缩,得到样本亚采样数据。
89.具体的,对高斯矩阵和样本全采样数据形成的矩阵做矩阵乘法,得到样本亚采样数据。
90.(3)将样本亚采样数据输入至预设的深度神经网络,以使深度神经网络输出对应的核磁共振图像。
91.可以理解的是,该核磁共振图像是矩阵图像。
92.(4)根据样本亚采样数据对应的样本全采样数据和核磁共振图像计算深度神经网络的损失值。
93.具体而言,计算当前已参与训练的所有样本全采样数据及其对应的核磁共振图像两者的均方误差,并对所有均方误差进行求和,将求和结果或者对求和结果进行归一化后的值作为损失值。
94.(5)若损失值不小于阈值,基于adam优化算法调整深度神经网络的网络参数,继续训练。
95.该阈值可根据想要获得的模型精度来设置,本发明实施例不做限定。可以理解的是,继续训练即是继续用之前生成的高斯矩阵对样本全采样数据进行采样,并将得到的亚采样数据输入到深度神经网络中继续进行训练。
96.(6)若损失值小于阈值,结束训练,将当前的深度神经网络作为深度神经网络模型,并将生成的高斯矩阵、当前得到的深度神经网络模型以及对应的成像部位进行关联。
97.在一个实施例中,还可以针对不同的病症类型训练专门的深度神经网络模型;例如,腹部核磁共振检查可以还进一步划分为针对不同脏腑的检查,此时预先可以训练多个深度神经网络模型,不同的深度神经网络模型用包含有所对应脏腑的图像信息的样本全采样数据来训练,且训练不同的深度神经网络模型时,使用不同的高斯矩阵来对其样本全采样数据进行压缩。
98.此时,对于任一种病症类型而言,上述步骤(4)中根据样本亚采样数据对应的样本全采样数据和核磁共振图像计算深度神经网络的损失值,具体可以是根据样本全采样数据和核磁共振图像中与该种病症类型有关的区域来计算损失值;例如,对于心脏病这一病症类型而言,根据样本全采样数据和核磁共振图像中的心区数据来计算损失值。这样,训练完成的该深度神经网络模型所输出的核磁共振图像能够更好的反应患者心区的病症情况。
99.为了验证本发明实施例的有益效果,对本发明实施例提供的基于压缩感知的核磁共振成像方法进行了仿真验证。仿真时实际采用的深度神经网络模型如图4所示。其中,“conv”代表的是卷积的含义,“conv”下方的数字代表的是卷积核大小;“refine”代表的是数据重建模块101;“fc”代表的是全连接层的含义,“fc”下方的数字代表全连接层的神经元个数。
100.图4示出的深度神经网络模型中,从右往左数,第1个模块为第三refine层,第2、3、4、5个模块分别为4个数据重建模块10,第6个模块为加法模块20;第7个模块是作为卷积模块30的第四卷积单元。其中,对第2个数据重建模块10的局部放大图中,从右往左数,第1个模块为第一卷积子模块101中的第一卷积单元,第2个模块为第一卷积子模块101中的第二卷积单元;第3个模块为全连接子模块102中的第一reshape层,第4个模块为全连接子模块102中的第一全连接层,第5个模块为全连接子模块102中的第二全连接层,第6个模块为全连接子模块102中的第三全连接层,第7个模块为全连接子模块102中的第二reshape层;第8个模块是作为第二卷积子模块103的第三卷积单元。
101.基于该深度神经网络模型进行仿真实验的过程包括:首先一些获取原始的全采样数据,即获取原始全采样的核磁共振图像;用训练该深度神经网络模型时使用的高斯矩阵对全采样数据进行压缩;然后,用该深度神经网络模型对压缩得到的亚采样数据进行数据重建,得到重建的核磁共振图像。用归一化均方误差(nmse)来评价重建的核磁共振图像和原始全采样的核磁共振图像的差异,评价结果如表1所示:
102.表1
103.crnmse(db)8

9.2416

7.7532

6.564
‑5104.其中,nmse的计算方式如下:
[0105][0106]
d代表原始全采样的核磁共振图像,代表重建的核磁共振图像,代表求欧几里得范数的平方,e{
·
}代表求取期望。
[0107]
从表1可以看到,本发明实施例中,在cr=8的低压缩率的情况下,nmse接近于

10db;而在cr大于8的高压缩率的情况下,nmse并未随cr的成倍增加而急剧恶化,即使是在cr=64时,仍能保持在

5db以下。相较于现有技术中在cr大于8的高压缩率的情况下nmse急剧恶化到

3db甚至

2db、

1db的情况,本发明实施例具有更优的性能。
[0108]
相应于本发明实施例提供的基于压缩感知的核磁共振成像方法,本发明实施例还提供了一种基于压缩感知的核磁共振成像装置,参见图5所示,该装置包括:
[0109]
采样模块110,用于按照预设的采样矩阵采集k空间的亚采样数据;
[0110]
成像模块120,用于将亚采样数据输入至预设的深度神经网络模型,以使深度神经网络模型对亚采样数据进行数据重建,并输出核磁共振图像;
[0111]
其中,深度神经网络模型是基于多个样本亚采样数据训练获得的,样本亚采样数据是利用一随机生成的高斯矩阵对样本全采样数据进行压缩获得的;高斯矩阵为采样矩阵;
[0112]
深度神经网络模型,包括依次连接的四个数据重建模块、加法模块以及卷积模块;其中,每个数据重建模块均包括依次连接的第一卷积子模块、全连接子模块以及第二卷积子模块;全连接子模块中包含有至少两个相邻连接的全连接层;第一卷积子模块中的卷积层的卷积核大小不低于5*5;加法模块用于将第一个数据重建模块的输入和最后一个数据重建模块的输出相加。
[0113]
可选地,全连接子模块,包括依次连接的第一reshape层、第一全连接单元、第二全连接单元、第三全连接单元以及第二reshape层;
[0114]
其中,第一全连接单元、第二全连接单元以及第三全连接单元的神经元个数比例为1:2:4。
[0115]
可选地,第一全连接单元、第二全连接单元以及第三全连接单元的神经元个数分别为:512、1024、2048
[0116]
可选地,第一卷积子模块,包括依次连接的第一卷积单元和第二卷积单元;
[0117]
第二卷积子模块,包括第三卷积单元;
[0118]
卷积模块,包括第四卷积单元;
[0119]
其中,第一卷积单元、第二卷积单元、第三卷积单元以及第四卷积单元均包括:卷积层、bn层以及激活层;第一卷积单元的卷积层的卷积核大小为7*7,第二卷积单元的卷积层的卷积核大小为5*5;第三卷积单元的卷积层的卷积核大小为3*3;第四卷积单元的卷积层的卷积核大小为3*3。
[0120]
可选地,深度神经网络模型还包括:位于第一个数据重建模块之前的第三reshape层;
[0121]
第三reshape层,用于将亚采样数据转换为与第一卷积子模块的输入端匹配的形式。
[0122]
可选地,深度神经网络模型包括多个,不同深度神经网络模型在训练阶段使用的高斯矩阵、样本全采样数据对应的成像部位不同,以使不同深度神经网络模型在使用阶段适用不同的成像部位;
[0123]
装置还包括:
[0124]
确定模块,用于在核磁共振设备中按照预设的采样矩阵采集k空间的亚采样数据之前,确定成像部位,并确定该成像部位对应的采样矩阵。
[0125]
可选地,深度神经网络模型是按照下述方式训练获得的;
[0126]
获取任一成像部位的多个样本全采样数据;
[0127]
随机生成一高斯矩阵,并使用高斯矩阵对样本全采样数据进行压缩,得到样本亚采样数据;
[0128]
将样本亚采样数据输入至预设的深度神经网络,以使深度神经网络输出对应的核磁共振图像;
[0129]
根据样本亚采样数据对应的样本全采样数据和核磁共振图像计算深度神经网络的损失值;
[0130]
若损失值不小于阈值,基于adam优化算法调整深度神经网络的网络参数,继续训练;
[0131]
若损失值小于阈值,结束训练,将当前的深度神经网络作为深度神经网络模型,并将生成的高斯矩阵、当前得到的深度神经网络模型以及对应的成像部位进行关联。
[0132]
对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0133]
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0134]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
[0135]
尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实
现所述公开实施例的其他变化。在说明书中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。相互不同的实施例中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
[0136]
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1