一种基于深度学习的争议焦点生成方法与流程

文档序号:20114346发布日期:2020-03-17 19:38阅读:来源:国知局

技术特征:

1.一种基于深度学习的争议焦点生成方法,其特征在于,所述方法包括以下步骤:

步骤1)从网络中爬取大量裁判文书;

步骤2)利用正则表达式方法对裁判文书进行初步的清洗和整理,抽取出裁判文书中的原告诉称和被告辩称,并对每一对原告诉称和被告辩称进行人工标注,将原告诉称和被告辩称以及人工标注的数据集,以1:1:1的比例构建成训练集;

步骤3)使用深度学习中的seq2seq文本生成模型和attention模型对所述步骤2)最终得到的训练数据集进行训练后,导出该训练数据集对应的生成器模型;

步骤4)对步骤3)中训练得到的文本生成器,利用训练完成的生成器从未标注的原告诉称和被告辩称中生成双方的争议焦点。

2.根据权利要求1所述的基于深度学习的争议焦点生成方法,其特征在于,所述步骤3)具体如下:

1)seq2seq的编码模型融合了上下文文本信息和文本主题信息,首先将原告诉称进行句子级的切分,对于每一个切分好的句子,进行分词,然后将句子放入gru模型,得到句子的最终表示;

hp,it=gru(xp,it,hp,it-1),t∈[1,r];

xp,it表示原告诉称的第i句第t个词的词向量,词向量通过word2vec训练得到,hp,it-1表示原告诉称第i句的t-1状态的隐状态,最终得到第r步的隐状态;

2)利用第r步的隐状态和每一步的隐状态计算attention值,并将attention计算得到的权重,乘以相应的隐状态向量,最终得到的计算向量即是句子的向量表示,计算公式如下所示:

up,it=tanh(wωhp,it+bω);

sp,i=∑tαp,ithp,it;

其中,hp,it表示gru中的原告诉称中第i个词的隐状态表示,wω和bω表示待调节的参数,最终得到sp,i,sp,i是原告诉称的第i个句子的嵌入表示,对于原告诉称,可以得到句子序列sp,1,sp,2……,sp,m。将句子序列输入到gru模型中,得到原告诉称的m个句子的总体表示;

hp,i=gru(sp,i,hp,i-1),i∈[1,m];

其中sp,i代表第i句子的原告诉称,hp,i-1代表上一步的输出的隐状态,m代表原告诉称的句子长度,最终得到最后的原告诉称表示,同理可得到最终的被告辩称。

3.根据权利要求2所述的基于深度学习的争议焦点生成方法,其特征在于,所述步骤3)中,除了利用到了上下文的表示,对于双方表述不同,但是含义相同的情况,对于原告所述步骤3)中,除了利用到了上下文的表示,对于双方表述不同,但是含义相同的情况,对于原告诉称和被告辩称,引入了主题向量表示,对于原告诉称的主题分布为tp=(tp,1,tp,2,…,tp,m);tp,q注意力权重通过以下的计算公式得到:

其中hp,m是输入文本的最后的隐状态,用于提高相关主题的权重,弱化不相干主题的权重,被告辩称也可通过相同的公式得到,本装置将原告诉称和被告辩称的attention的进行联合计算,得到统一的主题注意力权重,计算公式如下所示:

αjq=mp,jq·wq·md,jq

本方法联合上下文注意力机制和主题注意力机制联合计算得到cj,计算公式如下所示:

其中tp,j是tp主题中的一个主题的向量,td,j是td主题中的一个主题的向量。

得到原告诉称和被告辩称的融合向量以后,并以此向量作为解码器的输入,并生成争议焦点,生成的所有词的概率如下公式所示:

其中,yj-1是指上一个预测的词,是正则项,dj的计算公式如下所示:

dj=gru(yj-1,dj-1,cj)

其中的计算公式如下所示:

其中,wt和bv是指待调节的参数,σ是指激活函数。

当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1