高含硫天然气脱硫工艺强跟踪演化建模方法与流程

文档序号:12466322阅读:605来源:国知局
高含硫天然气脱硫工艺强跟踪演化建模方法与流程

本发明涉及高含硫天然气净化技术领域,更为具体地,涉及一种高含硫天然气脱硫工艺强跟踪演化建模方法。



背景技术:

高含硫天然气酸性组分含量比常规天然气高出数倍,其脱硫过程胺液循环量大、工艺流程复杂、能耗高。统计表明,脱硫单元能耗占高含硫天然气净化厂总能耗50%以上,其单位综合能耗高达1729.3MJ·t-1,属于高耗能单元。对大型净化厂而言,通过脱硫单元优化可降低能耗5%~10%。此外,高含硫天然气酸性组分浓度高,经过净化后的产品气量相对原料气流量有显著下降。为此,对高含硫天然气脱硫过程进行工艺优化,实现节能降耗,提高产率和气体加工经济效益是十分必要的。



技术实现要素:

鉴于上述问题,本发明的目的是提供一种高含硫天然气脱硫工艺强跟踪演化建模方法,以解决上述背景技术所提出的问题。

本发明提供的高含硫天然气脱硫工艺强跟踪演化建模方法,包括:

步骤S1:选择影响脱硫效率的工艺参数和脱硫单元的性能指标;其中,工艺参数包括进入尾气吸收塔贫的胺液流量、进入二级吸收塔的贫胺液流量、原料气处理量、尾气单元返回脱硫单元的半富胺液流量、一级吸收塔胺液入塔温度、二级吸收塔胺液入塔温度、闪蒸罐压力、一个重沸器的蒸汽消耗量、另一个重沸器的蒸汽消耗量和蒸汽预热器的蒸汽消耗量;脱硫单元的性能指标包括净化气中H2S和CO2的浓度以及净化气的产量;

步骤S2:采集预设时间的工艺参数和性能指标的数据,剔除误差样本后形成样本集[X,Y];

步骤S3:对样本集[X,Y]进行归一化,形成归一化样本集取归一化样本集中前80%的样本作为训练样本,而剩余的20%样本作为测试样本;

步骤S4:基于训练样本构建神经网络模型和神经网络模型的初始状态变量X,以及,将训练样本中的作为神经网络模型的输入,将训练样本中的作为神经网络模型的输出;

其中,构建的神经网络模型为:

其中,Ik为训练样本的矢量样本值,并作为神经网络模型的输入,为网络输入层到隐含层的神经元的连接权值,为网络输入层到隐含层的神经元的阈值,为隐含层到网络输出层的神经元的连接权值,为隐含层到网络输出层的神经元的阈值,其中,i=1,2…S0;j=1,2…S1;k=1,2…S2;S0为网络输入层的神经元的数量,S1为网络隐含层的神经元的数量,S2为网络输出层的神经元的数量;

构建的初始状态变量为:

步骤S5:利用ST-UKFNN算法估计神经网络模型的最优状态变量;

步骤S6:将最优状态变量作为所述神经网络模型的和对式(1)进行更新,获得训练样本更新后的神经网络模型;

步骤S7:将测试样本中的输入到更新后的神经网络模型,得到预测结果,将预测结果与测试样本中的实际输出进行比较,如果比较结果小于预设误差值,所构建的神经网络模型有效;否则重复上述步骤S1-S7,直至比较结果小于预设误差值为止。

本发明提供的高含硫天然气脱硫工艺强跟踪演化建模方法,能够节能降耗,提高产率和气体加工经济效益。

附图说明

通过参考以下结合附图的说明及权利要求书的内容,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:

图1a-图1c为训练样本的拟合精度图;

图2a-图2c为测试样本的测试精度图;

图3为测试样本与训练样本的精度误差图。

具体实施方式

名词解释

ST-UKFNN:Strong track Unscented Kalman Fliter Neural Network,强追踪无迹卡尔曼滤波神经网络。

本发明提供的高含硫天然气脱硫工艺强跟踪演化建模方法,包括:

步骤S1:选择影响脱硫效率的工艺参数和脱硫单元的性能指标;其中,工艺参数包括进入尾气吸收塔贫的胺液流量、进入二级吸收塔的贫胺液流量、原料气处理量、尾气单元返回脱硫单元的半富胺液流量、一级吸收塔胺液入塔温度、二级吸收塔胺液入塔温度、闪蒸罐压力、一个重沸器的蒸汽消耗量、另一个重沸器的蒸汽消耗量和蒸汽预热器的蒸汽消耗量;脱硫单元的性能指标包括净化气中H2S和CO2的浓度以及净化气的产量。如表1所示:

表1

步骤S2:采集预设时间的工艺参数和性能指标的数据,剔除误差样本后形成样本集[X,Y]。样本集[X,Y]如下表2所示:

表2

步骤S3:对样本集[X,Y]进行归一化,形成归一化样本集取归一化样本集中前80%的样本作为训练样本,而剩余的20%样本作为测试样本。

步骤S4:基于训练样本构建神经网络模型和神经网络模型的初始状态变量X,以及,将训练样本中的作为神经网络模型的输入即将训练样本中的作为神经网络模型的输出即

其中,构建的神经网络模型为:

其中,Ik为训练样本的矢量样本值,并作为神经网络模型的输入,为网络输入层到隐含层的神经元的连接权值,为网络输入层到隐含层的神经元的阈值,为隐含层到网络输出层的神经元的连接权值,为隐含层到网络输出层的神经元的阈值,其中,i=1,2…S0;j=1,2…S1;k=1,2…S2;S0为网络输入层的神经元的数量,S1为网络隐含层的神经元的数量,S2为网络输出层的神经元的数量;

构建的初始状态变量为:

步骤S5:利用ST-UKFNN算法估计神经网络模型的最优状态变量。

本发明利用ST-UKFNN算法估计神经网络模型的状态变量,以达到连接权值、阈值的不断调整,直到满足要求。将得到的最优状态变量的状态估计作为上述所建立神经网络模型的连接权值、阈值。需要说明的是,该连接权值、阈值为通过ST-UKFNN算法调整后的连接权值、阈值,也是上述所建立的神经网络模型的全部连接权值与阈值,包括和

利用ST-UKFNN算法估计神经网络模型的最优状态变量的过程包括:

步骤S51:对初始状态变量X进行Sigma采样,获得2n+1个采样点,初始化控制2n+1个采样点的分布状态参数α、待选参数κ,以及非负权系数β,对初始状态变量X的Sigma采样如下:

其中,为(k-1)时刻的最优状态变量的第i列,n为状态矩阵维度,pk-1为(k-1)时刻的最优状态变量的协方差。

步骤S52:计算每个采样点的权重,每个采样点的权重如下:

其中,Wc为计算状态变量的协方差的权重,Wm为计算状态估计和观测预测时的权重,是的第一列,是的第一列。

步骤S53:通过离散时间非线性系统的状态方程将每个采样点的(k-1)时刻的最优状态变量的状态估计变换为k时刻的状态变量的状态估计以及,通过合并k时刻的状态估计的向量,获得k时刻的状态变量的状态先验估计和协方差Pk|k-1

k时刻的状态变量的状态估计为:

其中,wk为过程噪声,其协方差矩阵Qk为cov(wk,wj)=Qkδkj

k时刻的状态变量的状态先验估计为:

k时刻的状态变量的协方差Pk|k-1为:

步骤S54:通过离散时间非线性系统的观测方程将建立k时刻的状态变量的状态估计和k时刻的观测预测的联系以完成观测预测,并估计k时刻的观测预测的协方差

k时刻的观测预测的均值为:

其中,

上述式(8)和式(9)建立了k时刻的状态变量的状态估计和k时刻的观测预测估计之间的关系。

其中,νk为观测噪声,其协方差矩阵Rk为cov(vk,vj)=Rkδkj

k时刻的观测预测的协方差为:

其中,在此处引入强追踪算法,即渐消因子λk+1增强模型的追踪能力以提高模型精度;

Nk+1=Vk+1-βRk+1 (14)

其中,β为弱化因子,β≥1;

步骤S55:计算k时刻的状态变量和观测预测之间的协方差Pxy,k

步骤S56:通过建立协方差Pxy,k和协方差的关系,更新k时刻的状态变量的状态估计和协方差,获得k时刻的最优状态变量。

其中,建立的状态变量的协方差Pxy,k和观测预测的协方差的关系为:

其中,Kk为增益矩阵,以此实现更新k时刻的最优状态变量的状态估计和更新k时刻的状态变量的协方差Pk;以及,

更新后的k时刻的状态变量的状态估计Xk|k为:

更新后的k时刻的状态变量的协方差Pk为:

将更新后的k时刻的状态变量的状态估计Xk和协方差Pk作为k时刻的最优变量。

步骤S57将获得的k时刻的最优状态变量代入步骤S51重新进行sigma采样,循环步骤S51-S57,获得神经网络模型的最优状态变量。

神经网络模型的最优状态变量的结构参数如下:

步骤S6:将最优状态变量作为神经网络模型的和对式(1)进行更新,获得训练样本更新后的神经网络模型。

步骤S7:将测试样本中的输入到更新后的神经网络模型,得到预测结果,将预测结果与测试样本中的实际输出进行比较,如果比较结果小于预设误差值,所构建的神经网络模型有效;否则重复上述步骤S1-S7,直至比较结果小于预设误差值为止。

需要说明的是,上述所有公式中k表示k时刻,k-1表示k-1时刻。

本发明通过几组测试得到如下的技术效果:

图1a-图1c为训练样本的拟合精度图,其中,图1a影响脱硫效率的工艺参数为净化气H2S浓度,图1b影响脱硫效率的工艺参数为净化气CO2浓度,图1c影响脱硫效率的工艺参数为净化气产量。

图2a-图2c为测试样本的测试精度图,其中,图2a影响脱硫效率的工艺参数为净化气H2S浓度,图2b影响脱硫效率的工艺参数为净化气CO2浓度,图2c影响脱硫效率的工艺参数为净化气产量。

净化气H2S浓度和净化气产量相对误差均在2%以内,净化气CO2浓度的相对误差绝大部分在5%以内,故所建模有效。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1