一种基于小层信息的未测量测井曲线智能构建方法及装置

文档序号:32750612发布日期:2022-12-31 00:30阅读:31来源:国知局
一种基于小层信息的未测量测井曲线智能构建方法及装置

1.本公开涉及油田开发和测井技术领域,尤其涉及一种基于小层信息的未测量测井曲线智能构建方法及装置。


背景技术:

2.地球物理测井技术是地球物理勘探方法中的一种极为重要的勘探技术,测井方法种类有很多,每条测井曲线都含有丰富的信息。综合利用单条或多条测井曲线,可以得到丰富的地质资料,进而解决一系列地质问题。随着油气勘探程度的逐渐加深和难度的加大,造成了各种测井难题,其中就包括未测量曲线的快速高效构建问题。


技术实现要素:

3.本公开的实施例提供一种基于小层信息的未测量测井曲线构建模型训练方法及装置、基于小层信息的未测量测井曲线智能构建方法及装置、计算机可读存储介质,以实现复杂页岩气田的未测量或未知测井曲线的构建,其预测准确率高,方法简单,计算速度快。
4.一方面,提供一种基于小层信息的未测量测井曲线构建模型训练方法。目标区块具有多口样本井,每口样本井对应多种测井曲线的数据;样本井包括多口训练井和至少一口测试井。基于小层信息的未测量测井曲线构建模型训练方法包括:
5.获取多口训练井对应的测井曲线数据作为训练数据,获取至少一口测试井对应的测井曲线数据作为测试数据;
6.获取目标区块在储层深度方向上的多个小层的小层划分信息;
7.分别对训练数据和测试数据进行软约束处理,对应形成第一训练集和第一测试集;软约束处理为,将小层划分信息作为先验信息并以列扩展方式与待处理数据耦合;
8.分别对训练数据和测试数据进行硬约束处理,对应形成第二训练集和第二测试集;硬约束处理为,将每个小层对应的待处理数据保存到小层对应的数据体中;
9.采用第一训练集训练lstm模型,获得软约束lstm模型;软约束lstm模型至少包括与目标测井曲线的种类相对应的第一子模型;
10.采用第二训练集训练lstm模型,获得硬约束lstm模型;硬约束lstm模型至少包括与目标测井曲线的种类相对应的第二子模型;
11.将第一测试集输入第一子模型,将第二测试集输入第二子模型,比较第一子模型和第二子模型得到的目标测井曲线计算结果,选择构建精度更高的子模型作为目标测井曲线对应的测井曲线构建模型。
12.在一些实施例中,采用第一训练集训练lstm模型,获得软约束lstm模型,包括:
13.将第一训练集中与目标测井曲线的种类相对应的测井曲线数据作为标签数据,将第一训练集中的其他数据作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与目标测井曲线的种类相对应的第一子模型。
14.在一些实施例中,同一深度的采样点对应的多种测井曲线的数据为一组采样点组
数据,每个小层对应多个采样点组;将每个小层对应的待处理数据保存到小层对应的数据体中,包括:
15.从第一个采样点组开始,遍历所有采样点组,判断当前采样点组对应的小层,并将当前采样点组的数据保存到小层对应的数据体中。
16.在一些实施例中,采用第二训练集训练lstm模型,获得硬约束lstm模型,包括:
17.将第二训练集中与目标测井曲线的种类相对应的测井曲线数据作为标签数据,将第二训练集中的其他数据作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与目标测井曲线的种类相对应的第二子模型。
18.在一些实施例中,模型训练预设的终止条件为,平均绝对百分比误差mape值随训练迭代次数的增加变化小于10%。
19.在一些实施例中,比较第一子模型和第二子模型得到的目标测井曲线计算结果,选择构建精度更高的子模型作为目标测井曲线对应的测井曲线构建模型,包括:
20.计算第一子模型和第二子模型对应的平均绝对百分比误差mape值,选择平均绝对百分比误差mape值较低的模型作为目标测井曲线对应的测井曲线构建模型。
21.另一方面,提供一种测井曲线构建模型训练装置,该装置包括处理器和存储器,存储器中存储有适于处理器执行的计算机程序指令,计算机程序指令被处理器运行时执行上述任一基于小层信息的未测量测井曲线构建模型训练方法中的步骤。
22.又一方面,提供一种基于小层信息的未测量测井曲线智能构建方法,该方法包括:
23.获取目标区块中目标井的测井曲线数据;
24.根据测井曲线构建模型的类型,对目标井的测井曲线数据进行软约束处理或硬约束处理,并将处理后的数据输入测井曲线构建模型中,获得目标井对应的目标测井曲线;
25.其中,测井曲线构建模型为上述任一实施例的测井曲线构建模型。
26.又一方面,提供一种测井曲线构建装置,装置包括处理器和存储器,存储器中存储有适于处理器执行的计算机程序指令,计算机程序指令被处理器运行时执行上述任一基于小层信息的未测量测井曲线智能构建方法中的步骤。
27.又一方面,提供一种计算机可读存储介质,存储介质中存储有计算机程序指令,当计算机程序指令由用户设备的处理器执行时,使得用户设备执行上述任一基于小层信息的未测量测井曲线构建模型训练方法,和/或,上述任一基于小层信息的未测量测井曲线智能构建方法。
28.本公开一些实施例提供的基于小层信息的未测量测井曲线构建模型训练方法,基于小层信息,通过对训练数据进行软约束处理形成第一训练集,并采用第一训练集训练lstm模型,获得软约束lstm模型;通过对训练数据进行硬约束处理形成第二训练集,并采用第二训练集训练lstm模型,获得硬约束lstm模型。其中,软约束处理的特点在于小层信息只是通过加入到测井曲线数据集中产生影响,此时小层信息的性质同其他测井曲线一样,机器学习模型只能通过训练寻找小层信息与其他测井曲线的映射关系。硬约束处理是将同一小层的数据都放在一起,通过机器学习寻找数据之间的映射关系。而同一小层的数据反映的地层性质是相同或者高度相似的,因此,硬约束的数据映射关系更明显,并且映射关系完全符合该小层。软约束与硬约束的区别在于,小层信息是加入到数据集中的,还是根据小层信息对数据进行了分类。软约束数据集的数据维度是m
×
(n+1),硬约束数据集的数据维度
是m
×
n。本公开的一些实施例提供的基于小层信息的未测量测井曲线构建模型训练方法,兼顾软约束与硬约束的优点,通过对比软约束lstm模型与硬约束lstm模型对用一种目标测井曲线的构建结果,选取结果精度更高的模型作为最终的目标测井曲线对应的测井曲线构建模型,使得测井曲线构建模型应用于同一区块的目标井的目标测井曲线预测时,可以有效构建目标测井曲线,其预测准确率高,方法简单,计算速度快。
附图说明
29.附图示出了本公开的示例性实施方式,并与其说明一起用于解释本公开的原理,其中包括了这些附图以提供对本公开的进一步理解,并且附图包括在本说明书中并构成本说明书的一部分。
30.图1为根据一些实施例的一种基于小层信息的未测量测井曲线构建模型训练方法的流程图;
31.图2为根据一些实施例的一种基于小层信息的未测量测井曲线智能构建方法的流程图;
32.图3为根据一些实施例的一种基于小层信息的未测量测井曲线智能构建方法的第一子模型预测的den曲线与真实值的对比图;
33.图4为根据一些实施例的一种基于小层信息的未测量测井曲线智能构建方法的第二子模型预测的den曲线与真实值的对比图。
具体实施方式
34.下面结合附图和实施方式对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施方式仅用于解释相关内容,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分。
35.需要说明的是,在不冲突的情况下,本公开中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本公开。
36.需要说明的是,文中的步骤编号,仅为了方便具体实施例的解释,不作为限定步骤执行先后顺序的作用。
37.本实施例提供的方法可以由相关的服务器执行,且下文均以服务器作为执行主体为例进行说明。其中,执行主体可以根据具体案例进行调整,如电子设备、计算机等。
38.正如背景技术所述,油气勘探程度逐渐加深,传统构建未测量曲线的方法局限性凸显,无法处理测井数据的复杂非线性映射关系。
39.近年来,人工智能发展迅速,神经网络对信息的处理具有自组织、自学习的特点,适用于处理测井数据这种复杂映射关系。尤其是长短期记忆神经网络模型,可以“记忆”历史信息,更适合测井序列数据的构建。然而,传统的神经网络方法没有考虑到储层信息,缺少真实地质资料支持,最终预测精度并不能完全达到要求。
40.目前构建未测量曲线的方法很多,主要包括公式法和人工智能法。但地质问题复杂性日益增加,传统经验公式法的局限性凸显;此外,大多数人工智能方法关注于探索不同测井曲线之间的关系,未考虑到小层划分信息。而小层划分对储层描述至关重要,它可以进一步提供地质状况,从而更容易分析储层的特征并指导油田开发,对油气田的开采意义重
大。因而,如何将小层划分信息应用于未测量测井曲线的智能构建十分必要。
41.基于此,本公开的实施例提供一种基于小层信息的lstm模型构建未测量测井曲线方法,应用于复杂页岩气田的未测量或未知测井曲线的构建。该未测量或未知测井曲线可以是全部缺失也可以是部分缺失。其预测准确率高,方法简单,计算速度快。
42.下面对本公开的应用场景做一下介绍。由于不同区块的地质条件通常差别较大,本公开中的方法适用于对同一区块中的目标井的未测量或未知测井曲线(目标测井曲线)进行预测构建。也即,通过同一区块中的多口样本井对应的已知测井曲线数据对lstm模型进行训练,得到用于预测目标测井曲线的测井曲线构建模型,该测井曲线构建模型可以用于构建同一区块中目标井的目标测井曲线。
43.这里,每口目标井或样本井均对应多种测井曲线的数据,其中目标井的目标测井曲线为未知测井曲线,样本井的目标测井曲线为已知测井曲线。目标井和样本井对应的其他种类的测井曲线均为已知测井曲线。每种测井曲线的数据为在目标区块的储层深度方向上分布的多个采样点采集的数据,将多个采样点的数据按深度排列可以形成一条测井曲线。
44.在进行模型训练之前,可以将多口样本井划分为训练井和测试井。也即,样本井包括多口训练井和至少一口测试井。
45.目标区块在储层深度方向上划分为多个小层。这里,每个小层可以对应多个采样点。
46.如图1所示,本公开的一些实施例提供了一种基于小层信息的未测量测井曲线构建模型训练方法。该模型训练方法包括:
47.s100,获取多口训练井对应的测井曲线数据作为训练数据,获取至少一口测试井对应的测井曲线数据作为测试数据。
48.s200,获取目标区块在储层深度方向上的多个小层的小层划分信息。
49.示例性的,对于s100和s200,可以获取多口训练井的测井曲线数据data_log和不同训练井对应的小层划分信息data_zone。其中data_log数据包括多种测井曲线,该多种测井曲线例如为cal曲线、den曲线、ac曲线、gr曲线等。data_log可表示为data_log={log_cal,log_den,log_ac,log_gr,

},维度为m
×
n,m代表所有井的采样点数之和,n代表测井曲线种类数目。由此可得训练数据。测试数据的获取过程与之类似,此处不做赘述。
50.data_zone数据维度为m
×
1,m同样为所有井的采样点数之和。这里,第i个小层可以标记为zone_i。
51.s300,分别对训练数据和测试数据进行软约束处理,对应形成第一训练集和第一测试集。
52.软约束处理为,将小层划分信息作为先验信息并以列扩展方式与待处理数据耦合。这里,待处理数据为训练数据或测试数据,可以根据实际待进行软约束处理的数据而定。
53.以形成第一训练集为例,将小层划分信息data_zone作为先验信息与测井曲线数据data_log耦合到输入数据中,耦合方式为列扩展方式,此时第一训练集为data_log_zone={data_log,data_zone},第一训练集作为后续模型训练的输入数据,其维度大小为m
×
(n+1)。
54.这里,由于小层划分数据以输入数据的形式对模型产生作用,约束作用不强,因而本公开称之为软约束。
55.s400,分别对训练数据和测试数据进行硬约束处理,对应形成第二训练集和第二测试集。
56.硬约束处理为,将每个小层对应的待处理数据保存到小层对应的数据体中。这里,待处理数据为训练数据或测试数据,可以根据实际待进行软约束处理的数据而定。
57.同一深度的采样点对应的多种测井曲线的数据为一组采样点组数据,每个小层对应多个采样点组。可选的,硬约束处理中,将每个小层对应的待处理数据保存到小层对应的数据体中,包括:
58.从第一个采样点组开始,遍历所有采样点组,判断当前采样点组对应的小层,并将当前采样点组的数据保存到小层对应的数据体中。
59.以形成第一测试集为例,根据小层划分信息data_zone筛选对应的测井曲线数据,并保存到小层对应数据体中。数据体数量与小层总数对应,共有n_zone个,第i个小层标记为zone_i。
60.每个数据体的维度大小不同,分别为mi×
n,mi表示每个数据体的采样点组数,满足
61.一个采样点组是指在同一深度下不同测井曲线的组合。例如,在深度为2000m时,cal、cnl、den、gr、ac等n种曲线在2000m深度采样点的数据共同构成一个采样点组。因此每个采样点组维度大小为1
×
n。每个小层zone_i对应mi个采样点组,例,第2小层zone_2共有mi=3000个采样点组,每个采样点组数据维度为1
×
5,5表示有5种不同的测井曲线。不同的zone_i对应的m可能相同或不同,n相同。
62.从第一个采样点组开始,遍历测井曲线所有采样点组,判断当前采样点组对应的小层,并将当前采样点组的数据保存到小层对应的数据体中。每个采样点组维度大小为1
×
n,若该采样点组对应的小层为zone_i层,则将该组数据保存到data_zone_i数据体中。
63.由于每个采样点组均根据实际对应的小层信息划分到不同数据体中,因而测井曲线数据严格按照小层信息分类,约束作用较强,因而本公开称之为硬约束。
64.s500,采用第一训练集训练lstm模型,获得软约束lstm模型。软约束lstm模型至少包括与目标测井曲线的种类相对应的第一子模型。
65.s500具体包括:将第一训练集中与目标测井曲线的种类相对应的测井曲线数据作为标签数据,将第一训练集中的其他数据作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与目标测井曲线的种类相对应的第一子模型。
66.示例性的,将数据集data_log_zone划分为神经网络模型框架的所需的特征数据和标签数据两部分。其中标签数据为目标测井曲线的数据,特征数据为其他测井曲线的数据和对应井的小层信息。假设目标预测曲线为中子曲线(cnl),则特征数据为feature={去掉cnl后的data_log,data_zone},标签数据为label={cnl}。lstm模型采用有监督的学习方式,将feature和label数据输入到lstm模型中进行训练,当模型满足终止条件时将其保存为soft_lstm_model。
67.这里,在已知将要采用训练好的软约束模型对何种测井曲线进行预测构建的情况下,目标测井曲线的种类可以与待构建的测井曲线种类相同;在对构建的测井曲线种类未
知的情况下,任一种测井曲线均可作为目标测井曲线。例如,样本井对应的测井曲线为cal、cnl、den、gr、ac五种曲线,可以将cal作为目标测井曲线,也即标签数据;采用第一训练集中的cnl、den、gr、ac测井曲线数据和小层划分信息训练作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与的第一子模型为软约束cal子模型。又例如,将cnl作为目标测井曲线,也即标签数据;采用第一训练集中的cal、den、gr、ac测井曲线数据和小层划分信息训练作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与的第一子模型为软约束cnl子模型。
68.作为一种可能的实现方式,在训练获得软约束lstm模型的过程中,可以对样本井对应的多种测井曲线分别进行模型训练,得到一一对应的多种第一子模型,从而便于在未确定将要对哪种测井曲线进行预测的情况下,充分利用样本井的测井曲线数据,尽可能多的得到不同种类测井曲线的软约束子模型,从而便于后续对不同种类的测井曲线进行预测构建。
69.具体的,可以以目标预测曲线的种类作为第一子模型区分标准,针对不同目标曲线分别构建对应的第一子模型,也即,对不同的子模型分别进行参数设置和模型训练,当子模型满足结束条件时将其保存为soft_lstm_model。因而,soft_lstm_model={soft_lstm_model_cnl,soft_lstm_model_den,

}。
70.s600,采用第二训练集训练lstm模型,获得硬约束lstm模型。
71.硬约束lstm模型至少包括与目标测井曲线的种类相对应的第二子模型。
72.s600具体包括:
73.将第二训练集中与目标测井曲线的种类相对应的测井曲线数据作为标签数据,将第二训练集中的其他数据作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与目标测井曲线的种类相对应的第二子模型。
74.示例性的,将数据集data_zone_i划分为神经网络模型框架所需的特征数据和标签数据两部分。其中标签数据为目标测井曲线数据,特征数据为其他数据。同样采用lstm模型进行学习,当模型满足终止条件时将其保存为hard_lstm_model。
75.这里,在已知将要采用训练好的硬约束模型对何种测井曲线进行预测构建的情况下,目标测井曲线的种类可以与待构建的测井曲线种类相同;在对构建的测井曲线种类未知的情况下,任一种测井曲线均可作为目标测井曲线。例如,样本井对应的测井曲线为cal、cnl、den、gr、ac五种曲线,可以将cal作为目标测井曲线,也即标签数据;采用第二训练集中的cnl、den、gr、ac测井曲线数据和小层划分信息训练作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与的第二子模型为硬约束cal子模型。又例如,将cnl作为目标测井曲线,也即标签数据;采用第二训练集中的cal、den、gr、ac测井曲线数据和小层划分信息训练作为特征数据,输入到lstm模型中进行训练,当lstm模型满足预设的终止条件时,获得与的第二子模型为软约束cnl子模型。
76.作为一种可能的实现方式,在训练获得硬约束lstm模型的过程中,可以对样本井对应的多种测井曲线分别进行模型训练,得到一一对应的多种第二子模型,从而便于在未确定将要对哪种测井曲线进行预测的情况下,充分利用样本井的测井曲线数据,尽可能多的得到不同种类测井曲线的硬约束子模型,从而便于后续对不同种类的测井曲线进行预测构建。
77.具体的,可以以目标预测曲线的种类作为第二子模型区分标准,针对不同目标曲线分别构建对应的第二子模型,也即,对不同的子模型分别进行参数设置和模型训练,当子模型满足结束条件时将其保存为hard_lstm_model。hard_lstm_model={hard_lstm_model_cnl,hard_lstm_model_den,

}。
78.在一些实施例中,软约束lstm模型或硬约束lstm模型的基本参数设置为:多层神经网络共设置为输入层、中间隐藏层和输出层三大部分,每一层具体的数据特征规模可通过贝叶斯调参法进行选择,隐藏层均引入dropout技术,防止过拟合。
79.由于机器学习算法的超参数组合众多,不同组合下的机器学习算法精度不同,通常可采用人工调参和代码调参两种方式。人工调参费时费力,经验依赖性强,因而采用代码自动调参方法。代码调参又主要有三大类,一类是网格搜索调参,一类是随机搜索调参,还有一类是贝叶斯调参方法。
80.网格搜索法是一种指定参数值的穷举搜索方法,将各个参数可能的取值进行排列组合,所有组合结果构成“网格”,然后用机器学习模型学习所有组合下的情况,最后选择最好的一组超参数,这种方法费时间,而且超参数较多时面临着维度灾难;随机搜索调参方法与网格搜索调参方法类似,相对网格搜索法而言能减少时间消耗,但每次搜索相互独立运行,无法充分利用之前超参组合的先验知识。而贝叶斯调参方法可以解决该问题。该方法的主要思想是,给定机器学习模型的输入和输出,通过不断添加样本点更新目标函数的后验分布,即进行高斯过程,直到该分布基本贴合真实分布,可以考虑之前超参组合的先验知识。
81.具体步骤如下:首先选择需要最小化的目标值,在lstm深度神经网络中,目标函数为网络模型使用一组超参数在验证集上的损失。
82.然后为每一个超参数定义取值分布,每搜索一次超参数,就对模型训练一次。
83.最后构造代替函数,选择下一组超参数配置进行评估的办法,这部分包括两个核心,一个是先验函数(prior function,pf),另一个是采集函数(acquisition function,ac)。先验函数pf主要利用高斯过程(gaussian process,gp),采集函数ac主要用ei(expected improvement)方法。
84.假设数据集为data={(x1,y1),(x2,y2),...,(xn,yn)},若要预测x
n+1
处的y
n+1
,高斯过程会将第n+1个观测点认为是某个n+1维高斯分布的一个样本,即:
[0085][0086]
其中,g表示高斯函数,
[0087]
k=[(x
n+1
,x1),(x
n+1
,x2),...,(x
n+1
,xn)],
[0088]
k(xi,xj)为协方差函数,计算公式为:
[0089][0090]
其中,θ为模型的平滑度,取值可选为0.1、0.2和0.5。
[0091]
由于特征曲线对目标测井曲线的影响度不同,因而选择以下的协方差函数:
[0092][0093]
其中,diag(θ)为对角矩阵。
[0094]
由以上公式推导得f
n+1
的分布为:
[0095]
p(f
n+1
|data,x
n+1
)=g(u(x
n+1
),v2(x
n+1
))
[0096]
其中,u(x
n+1
)=kk-1f1:n
,v2(x
n+1
)=k(x
n+1
,x
n+1
)-kk-1kt

[0097]
u(x
n+1
)即为x
n+1
处的预测值,v2(x
n+1
)为x
n+1
处预测值的噪声。
[0098]
ei的计算方法为:
[0099][0100][0101]
其中,φ(
·
)和φ(
·
)分别表示标准正态累积分布和标准正态分布,x
max
表示已使用过的参数组合中使得目标函数值最大的点的位置。
[0102]
当需要优化的目标函数达到终止条件时,将超参数和验证集损失的结果进行存储。
[0103]
网格搜索和随机搜索调参方法相比,贝叶斯调参采用高斯过程,可以考虑先验信息,且迭代次数少,更新速度快,无维度爆炸情况。此外,该方法稳定性较强,更适合机器学习调参。
[0104]
隐藏层均引入dropout技术,防止过拟合,dropout比率设置为0.3。
[0105]
在一些实施例中,软约束lstm模型或硬约束lstm模型的模型训练预设的终止条件为,平均绝对百分比误差mape值随训练迭代次数的增加变化小于10%。
[0106]
mape计算方法为:
[0107][0108]
其中,yi为真实测量的数据值,为模型预测的数据值,n为样本点组数。
[0109]
s700,将第一测试集输入第一子模型,将第二测试集输入第二子模型,比较第一子模型和第二子模型得到的目标测井曲线计算结果,选择构建精度更高的子模型作为目标测井曲线对应的测井曲线构建模型。
[0110]
在一些实施例中,比较第一子模型和第二子模型得到的目标测井曲线计算结果,选择构建精度更高的子模型作为目标测井曲线对应的测井曲线构建模型,包括:
[0111]
计算第一子模型和第二子模型对应的平均绝对百分比误差mape值,选择平均绝对百分比误差mape值较低的模型作为目标测井曲线对应的测井曲线构建模型,也即mape值较低的模型预测效果更好,其预测结果可作为测试井的最终曲线构建结果。
[0112]
本公开一些实施例提供的基于小层信息的未测量测井曲线构建模型训练方法,基于小层信息,通过对训练数据进行软约束处理形成第一训练集,并采用第一训练集训练
lstm模型,获得软约束lstm模型;通过对训练数据进行硬约束处理形成第二训练集,并采用第二训练集训练lstm模型,获得硬约束lstm模型。其中,软约束处理的特点在于小层信息只是通过加入到测井曲线数据集中产生影响,此时小层信息的性质同其他测井曲线一样,机器学习模型只能通过训练寻找小层信息与其他测井曲线的映射关系。硬约束处理是将同一小层的数据都放在一起,通过机器学习寻找数据之间的映射关系。而同一小层的数据反映的地层性质是相同或者高度相似的,因此,硬约束的数据映射关系更明显,并且映射关系完全符合该小层。软约束与硬约束的区别在于,小层信息是加入到数据集中的,还是根据小层信息对数据进行了分类。软约束数据集的数据维度是m
×
(n+1),硬约束数据集的数据维度是m
×
n。本公开的一些实施例提供的基于小层信息的未测量测井曲线构建模型训练方法,兼顾软约束与硬约束的优点,通过对比软约束lstm模型与硬约束lstm模型对用一种目标测井曲线的构建结果,选取结果精度更高的模型作为最终的目标测井曲线对应的测井曲线构建模型,使得测井曲线构建模型应用于同一区块的目标井的目标测井曲线预测时,可以有效构建目标测井曲线,其预测准确率高,方法简单,计算速度快。
[0113]
本公开一些实施例还提供一种基于小层信息的未测量测井曲线智能构建方法。如图2所示,该基于小层信息的未测量测井曲线智能构建方法包括:
[0114]
s1,获取目标区块中目标井的测井曲线数据;
[0115]
s2,根据测井曲线构建模型的类型,对目标井的测井曲线数据进行软约束处理或硬约束处理,并将处理后的数据输入测井曲线构建模型中,获得目标井对应的目标测井曲线;
[0116]
其中,测井曲线构建模型为上述任一实施例的测井曲线构建模型。
[0117]
可以理解的是,当通过基于小层信息的未测量测井曲线构建模型训练方法优选出来的测井曲线构建模型为软约束lstm模型时,则对目标井的测井曲线数据进行软约束处理;当通过基于小层信息的未测量测井曲线构建模型训练方法优选出来的测井曲线构建模型为硬约束lstm模型时,则对目标井的测井曲线数据进行硬约束处理。
[0118]
本公开一些实施例提供的基于小层信息的未测量测井曲线智能构建方法与本公开一些实施例提供的基于小层信息的未测量测井曲线构建模型训练方法具有相同的有益效果,此处不再赘述。
[0119]
下面以某区块12口水平井的测井曲线为例对本公开一些实施例提供的基于小层信息的未测量测井曲线智能构建方法和基于小层信息的未测量测井曲线构建模型训练方法进行进一步说明。
[0120]
首先从12口水平井样本井中选择10口水平井(井号标记为w-1、w-2、

、w-10)作为训练井。每口水平井对应井径cal曲线、中子cnl曲线、密度den曲线、声波时差ac曲线和自然伽马gr曲线五种测井曲线,采样点组数量分别为number={15248,12000,11744,15152,15368,11656,16832,15544,11504,13336},将所有井的相同种类的测井曲线进行行扩展操作,即数据串联,串联后共138384组采样点。将数据体记为data_log={log_cal,log_den,log_ac,log_gr,log_cnl},也即训练数据,数据维度为138384
×
5。同时获取这10口井对应的小层划分信息,小层划分信息行扩展后获得data_zone,数据维度为138384
×
1。data_log和data_zone数据共同构成训练神经网络模型需要的数据集。
[0121]
将小层划分信息data_zone作为先验信息与训练数据data_log耦合,耦合方式为
列扩展方式,得到第一训练集为data_log_zone={data_log,data_zone},输入数据的维度大小为138384
×
6,data_log_zone数据即为软约束模型所需的数据集。
[0122]
另一方面,为硬约束模型准备训练数据集,即根据小层划分信息data_zone筛选对应的测井曲线数据,并保存到各小层对应数据体中。该区块储层的小层共有8个,即n_zone=8,每一个小层分别标记为zone_1、zone_2、zone_3、zone_4、zone_5、zone_6、zone_7和zone_8。每个数据体的维度大小不同,但每个井的测井曲线采样点数量总和均为number中对应的总和数。具体的,从第一个采样点组开始,遍历测井曲线所有采样点组并进行判断,每个采样点组维度大小为1
×
5,若该采样点组对应的小层为zone_1层,则将该组数据保存到data_zone_1数据体中,以此类推,其他小层对应的数据均可获得。
[0123]
分别构建软约束和硬约束的lstm模型。
[0124]
将第一训练集,也即数据集data_log_zone划分为神经网络模型框架的所需的特征数据和标签数据两部分。其中标签数据为目标测井曲线,本实施例中den测井曲线的数据为标签数据,也即标签数据为label={den}。特征数据feature为cnl、gr、cal、ac以及小层信息。然后将feature数据和label数据输入到lstm模型中进行训练,并通过贝叶斯方法调参,对密度曲线den而言,lstm模型的最优参数为,输入层的特征规模设置为100,其后层的特征规模依次设置为80,60,40,20,10,前三层均引入dropout层,比率为0.3,keep_prob参数值为0.7,输出层为softmax网络层组成。
[0125]
以类似的方式构建硬约束的lstm模型。具体的,将第二训练集,也即数据集data_zone_i划分为神经网络模型框架所需的特征数据和标签数据两部分。其中标签数据为目标测井曲线den的数据,特征数据为其他测井曲线cnl、gr、cal和ac。同样采用lstm模型进行学习。
[0126]
当硬约束lstm模型和软约束lstm模型训练满足终止条件,即平均绝对百分比误差mape值随训练迭代次数的增加变化小于10%时模型训练结束。本实施例中,mape为7%时模型训练结束。此时,将软约束lstm模型和硬约束lstm模型分别保存为第一子模型soft_lstm_model_den和第二子模型hard_lstm_model_den。
[0127]
同理,根据上述步骤也可获得第一子模型soft_lstm_model_cnl、第一子模型soft_lstm_model_gr、第一子模型soft_lstm_model_cal以及第一子模型soft_lstm_model_cnl。
[0128]
选择12口样本井中的井w-11和井w-12作为盲井测试数据体,也即测试井,分别对井w-11和井w-12的数据进行软约束处理和硬约束处理,并选择对应的soft_lstm_model子模型和hard_lstm_model子模型进行井w-11和井w-12的den测井曲线的构建。这里选择第一子模型soft_lstm_model_den和第二子模型hard_lstm_model_den。
[0129]
采用第一子模型soft_lstm_model_den和第二子模型hard_lstm_model_den对井w-11的den测井曲线的预测结果请参见图3和图4。
[0130]
分别计算井w-11和井w-12的第一子模型soft_lstm_model_den和第二子模型hard_lstm_model_den的构建精度mape并且进行比较。soft_lstm_model_den的mape值为11%,hard_lstm_model_den的mape值为7%,因而选择hard_lstm_model_den的预测结果作为井w-11和井w-12的最终曲线构建结果。
[0131]
该区块中存在目标井w-13,其den为未知测井曲线,其他测井曲线cnl、gr、cal和ac
的数据已知。
[0132]
根据上述井w-11和井w-12的计算结果,当需要构建目标井w-13的den测井曲线时,可以对井w-13的测井曲线cnl、gr、cal和ac的数据进行硬约束处理,并将处理后的数据输入通过井w-11和井w-12的计算结果优选出的hard_lstm_model_den模型中,即可获得目标井w-13对应的目标测井曲线den测井曲线。
[0133]
本公开实施例还提供了一种测井曲线构建模型训练装置,该装置包括处理器和存储器。其中,存储器中存储有适于处理器执行的计算机程序指令。当该计算机程序指令被处理器运行时,处理器执行上述任一实施例提供的基于小层信息的未测量测井曲线构建模型训练方法。
[0134]
本公开实施例还提供了一种测井曲线构建装置,该装置包括处理器和存储器。其中,存储器中存储有适于处理器执行的计算机程序指令。当该计算机程序指令被处理器运行时,处理器执行上述任一实施例提供的基于小层信息的未测量测井曲线智能构建方法。
[0135]
本公开实施例还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序指令,当所述计算机程序指令由用户设备的处理器执行时,使得用户设备执行上述任一实施例公开的基于小层信息的未测量测井曲线构建模型训练方法,和/或,基于小层信息的未测量测井曲线智能构建方法。
[0136]
本公开任一实施例提供的计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
[0137]
本公开实施例还提供了一种电子设备,包括处理器和存储器,所述存储器中存储有适于所述处理器执行的计算机程序指令,所述计算机程序指令被所述处理器运行时执行上述任一实施例公开的方法。
[0138]
本公开任一实施例提供的电子设备可以是手机、电脑、平板电脑、服务器、网络设备等,或者也可以是u盘、移动硬盘、只读存储器(rom,read onlymemory)、磁碟或者光盘等。
[0139]
举例来说,该电子设备可以包括:处理器、存储器、输入/输出接口、通信接口和总线。其中处理器、存储器、输入/输出接口和通信接口通过总线实现彼此之间在设备内部的通信连接。
[0140]
处理器可以采用通用的cpu(central processing unit,中央处理器)、微处理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
[0141]
存储器可以采用rom(read only memory,只读存储器)、ram(random access memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器中,并由处理器来调用执行。
[0142]
输入/输出接口用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中,也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
[0143]
通信接口用于连接通信模块,以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
[0144]
总线包括一通路,在设备的各个组件(例如处理器、存储器、输入/输出接口和通信接口)之间传输信息。
[0145]
需要说明的是,尽管上述设备仅示出了处理器、存储器、输入/输出接口、通信接口以及总线,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含全部所述组件。
[0146]
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书实施例可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书实施例各个实施例或者实施例的某些部分所述的方法。
[0147]
上述实施例阐明的方法或装置,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
[0148]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。以上所描述的方法实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,在实施本说明书实施例方案时可以把各模块的功能在同一个或多个软件和/或硬件中实现。也可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0149]
在本说明书的描述中,参考术语“一个实施例/方式”、“一些实施例/方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例/方式或示例描述的具体特征、结构、材料或者特点包含于本技术的至少一个实施例/方式或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例/方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例/方式或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例/方式或示例以及不同实施例/方式或示例的特征进行结合和组合。
[0150]
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者
隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。“和/或”仅仅是描述关联对象的关联关系,表示三种关系,例如,a和/或b,表示为:单独存在a,同时存在a和b,单独存在b这三种情况。同时,在本公开的描述中,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电性连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本公开中的具体含义。
[0151]
本领域的技术人员应当理解,上述实施方式仅仅是为了清楚地说明本公开,而并非是对本公开的范围进行限定。对于所属领域的技术人员而言,在上述公开的基础上还可以做出其它变化或变型,并且这些变化或变型仍处于本公开的范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1