一种多模态融合技术的图书宣传摘要生成方法和系统

文档序号:29488825发布日期:2022-04-06 11:23阅读:115来源:国知局
一种多模态融合技术的图书宣传摘要生成方法和系统

1.本发明涉及多模态融合领域,更具体地,涉及一种多模态融合技术的图书宣传摘要生成方法和系统。


背景技术:

2.随着科学技术的发展及现代社交软件的普及,新媒体的影响力迅速增长,借助微信推送等网络技术方式推广宣传图书已经成了很多图书馆和书店常用的营销宣传手段。
3.目前业界针对图书宣传摘要生成方法一般有以下几种:
4.1、抽取式摘要生成
5.抽取式摘要是一种比较成熟的方案,其中text rank排序算法以其简洁、高效的特点被工业界广泛运用。其思想是先去除文章中的一些停用词,之后对句子的相似度进行度量,计算每一句相对另一句的相似度得分,迭代传播,直到误差小于阈值。再对上述得到的关键语句进行排序,便能得到想要的摘要。抽取式摘要主要考虑单词词频,并没有过多的语义信息,形成的句子可能仅仅是内容的浓缩无法考量场景信息。
6.2、生成式摘要生成
7.生成式文本摘要主要依靠深度神经网络结构实现。神经网络文本生成模型通常是自回归语言模型或seq2seq模型。这些模型通过按顺序采样单词来生成文本,每个单词都以前面的单词为条件,对于一些机器翻译和摘要任务来说是最先进的,们不局限于简单地从原文中选择和重排段落。它们通常利用最大似然估计和teacher-forcing进行训练,这些方法非常适合优化困惑度,但可能导致较差的样本质量,因为生成文本时,历史生成单词可能在训练时没有出现过,导致误差逐渐累积。
8.目前的摘要研究通常以文本为处理对象,一般不涉及其他模态信息的处理。然而,不同模态的信息是相互补充和验证的,充分有效的利用不同模态的信息可以帮助模型更好的定位关键内容,生成更好的摘要。
9.现有技术中公开提供一种基于多模态流形学习和社交网络特征的推特摘要生成方法,包括以下步骤:获取用户的特定话题推文集,以及用户互动信息;构建文本内的关系矩阵和跨文本的关系矩阵;结合所述矩阵计算推文显著度;结合用户互动信息计算社会认同度;将推文显著度与社会认同度结合即可得到最终的推文显著度,进而选择显著度最高的若干句子成为摘要。该方案仍存在许多的问题如不同模态信息交互较少,现有工作模态融合的核心在于层次化注意力机制,除此以外,不同模态信息缺少显式的交互方式,无法充分的发挥模态信息之间的互补关系。同时多模态摘要生成需要大量的训练数据依赖于人工先验知识。


技术实现要素:

10.本发明的首要目的是提供一种多模态融合技术的图书宣传摘要生成方法,结合图书摘要自动生成器将抽取式、生成式与多模态生成三种方法,解决现有技术中的缺点。
11.本发明的进一步目的是一种多模态融合技术的图书宣传摘要生成系统。
12.为解决上述技术问题,本发明的技术方案如下:
13.一种多模态融合技术的图书宣传摘要生成方法,包括以下步骤:
14.s1:获取包括图书信息的文本信息;
15.s2:根据所述文本信息,基于textrank的抽取式摘要生成,生成第一摘要;
16.s3:根据所述文本信息,基于多模态指针生成网络,生成第二摘要;
17.s4:取第一摘要和第二摘要的并集为最终的图书宣传摘要。
18.优选地,步骤s1中的图书信息包括图书图像、书名、作者和内容简介。
19.优选地,所述基于textrank的抽取式摘要生成,生成第一摘要,具体为:
20.textrank算法的文本网络图可以表示为一个带权的无向网络图g=(v,e,w),其中:v为节点的集合,e为节点间各个边的非空有限集合,w为各边上权重的集合;假设v={v1,v2,...,vn},则记e={(vi,vj),vi∈v,vj∈v,w
ij
∈w,w
ij
≠0},w={w
ij
,1≤i≤n,1≤j≤n},其中w
ij
为节点vi与vj间边的权重值;通过余弦相似度方法计算可得到句子间的一个n
×
n的相似度矩阵sn×n:
[0021][0022]
矩阵sn×n为对称矩阵,且对角线上的元素值全部取1;
[0023]
由g和对应的相似度矩阵sn×n,可计算出每个节点的权重,对于任意节点vi,in(vi)表示指向vi的节点集合,out(vj)表示vi指向节点的集合,节点vi的权重计算式表示为:
[0024][0025]
式中:ws(vi)为节点vi的权重,d为阻尼系数,ws(vj)表示上一次迭代后节点vj的权重值,w
ji
表示节点vj和节点vi间的相似度;
[0026]
则基于textrank的文本网络图中各节点的权重的计算式表示为:
[0027][0028]
式中:si和sj表示文本中的句子,ws(si)表示句子si在textrank网络图中的权重;
[0029]
通过迭代计算就能得到趋于正常和稳定的权重值后,依据句子的权重值大小对句子进行排序,根据实际需求选取适量排序靠前的句子,并按照其在原文中的顺序排序,生成文本摘要。
[0030]
优选地,首次使用textrank算法计算各节点的权重时,需要指定每个节点的初始值,即自身的权重,设定所有节点的初始权重为1,则b0=(1,1,...,1)
t
,然后根据边的权重递归迭代计算至收敛:
[0031]bi
=sn×n·bi-1
[0032]
当bi与b
i-1
的差值小于阈值时,达到收敛,迭代计算结束。
[0033]
优选地,所述基于多模态指针生成网络,生成第二摘要,具体为:
[0034]
对于文本特征,利用seq2seq模型得到一个文本嵌入向量;
[0035]
对于图像特征,利用基于模型隐藏状态初始化的视觉特征提取策略,得到视觉上下文向量;
[0036]
将所述文本嵌入向量和视觉上下文向量结合,计算得到多模态上下文向量;
[0037]
利用所述多模态上下文向量更新指针生成网络,所述指针生成网络用来预测单词,得到第二摘要。
[0038]
优选地,对于文本特征,所述seq2seq模型的结构为encoder-decoder模型,先用encoder将原文本编码成一个中间层的隐藏状态,然后用decoder来将该隐藏状态解码成为另一个文本,seq2seq模型在encoder端是一个双向的lstm,这个双向的lstm可以捕捉原文本的长距离依赖关系以及位置信息,编码时词嵌入经过双向lstm后得到编码状态,在decoder端,解码器是一个单向的lstm,训练阶段时参考摘要词依次输入,在时间步t得到解码状态,使用编码状态和解码状态得到该时间步原文第i个词注意力权重,编码状态hi与解码状态s
t
如下所示:
[0039]hi
=f
enc
(xi,h
i-1
)
[0040]st
=f
dec
(s
t-1
,y
t-1
,c
t
)
[0041]
其中,f
enc
为编码函数,f
dec
为解码,y
t-1
为t-1步的生成词,c
t
是一个上下文向量,它由基于注意力的编码器隐藏状态的加权和生成,其分布如下:
[0042][0043]
α
t
=softmax(e
t
)
[0044]ct
=∑iα
t,ihi
[0045]
式中,e
t,i
指t阶段第i个词注意力权重、wa、va、ba均为学习权重,e
t
指的是t阶段的隐藏层权重;
[0046]
对于图像特征,输入一个给定的图书封面或海报图像图像,使用resnet-101的最后一个池化层中提取预先训练的imagenet的全局的可视化向量q,并用它来初始化编码器和解码器:
[0047][0048][0049][0050]
式中,w
e1
、b
e1
、w
e2
、b
e2
、wf、vw、bf为学习参数;
[0051]
为了利用局部视觉特征增强上下文表征,提取目标特征vi作为局部的视觉特征,使用resnet-101初始化的mask r-cnn,然后使用可视化基因组数据集对其进行再训练,来自region proposal network的roi align层;
[0052]
除了对输入句子的单词的注意外,多模态指针生成模型还可以对图像的不同区域进行权重提取,应用了分层注意力机制,使模型对文本信息和视觉信息进行了不同的注意,我们使用跨模态注意策略计算视觉上下文向量
[0053][0054][0055][0056]
其中,w
l
、v
l
、b
l
为学习参数。
[0057]
优选地,将所述文本嵌入向量和视觉上下文向量结合,计算得到多模态上下文向量,具体为:
[0058][0059][0060][0061][0062][0063]
式中,wg、vg、bg、wh、vh、wm、vm为学习参数,σ为sigmoid函数,通过激活函数映射后的文本向量,通过激活函数映射后的视觉图像向量,i
α
为通过激活函数映射后的融合上下文信息的视觉特征向量。
[0064]
优选地,所述指针生成器网络根据两个模块的概率分布来预测单词,即生成器和指针,生成器如下所示:
[0065][0066]
其中,wb、vb、bb为学习参数,p
gen
(w)为预测词汇w分布;
[0067]
指针则是从源序列中复制一个字y
t

[0068][0069]
其中,p
copy
(w)指的是单词是从源序列中复制而来的概率,w为预测单词;
[0070]
最后的分布是词汇量分布和注意力分布的加权和:
[0071]
p(w)=λ
t
p
gen
(w)+(1-λ
t
)p
copy
(w)
[0072]
其中,λ
t
∈[0,1]是时间序列的生成概率:
[0073][0074]
其中,为学习参数,y
t-1
指的是t-1时间步的目标词;
[0075]
损失函数l是每个时间步长t中真实目标词y
t
的负对数似然:
[0076][0077]
其中,t表示总的时间长度,p(y
t
)指的是真实目标词的概率分布。
[0078]
优选地,所述取第一摘要和第二摘要的交集为最终的图书宣传摘要,具体为:
[0079]
使用python对两个模型的输出结果取并集,代码如下:
[0080]
all_union=list(set(s1).union(set(s2)))
[0081]
其中s1为textrank的输出结果,s2为多模态指针模型的输出结果,并针对最终结果all_union去更新多模态指针生成网络。
[0082]
一种多模态融合技术的图书宣传摘要生成系统,包括:
[0083]
信息获取模块,所述信息获取模块用于获取包括图书信息的文本信息;
[0084]
第一摘要生成模块,所述第一摘要生成模块用于根据所述文本信息,基于textrank的抽取式摘要生成,生成第一摘要;
[0085]
第二摘要生成模块,所述第二摘要生成模块用于根据所述文本信息,基于多模态指针生成网络,生成第二摘要;
[0086]
输出模块,所述输出模块取第一摘要和第二摘要的交集为最终的图书宣传摘要。
[0087]
与现有技术相比,本发明技术方案的有益效果是:
[0088]
1、本发明能够结合抽取式与生成式模型的优点,取并集可以克服两者的缺陷得到更加完整的营销文本。
[0089]
2、本发明适合更多的场景应用,如电商中其他商品的营销文本生成,不依赖于数据产生的环境和业务需求。
[0090]
3、本发明可以融合多模态数据,让输入更加丰富,生成具有参考意义的图书宣传文本。
[0091]
4、本发明的模型的数据来源简单,数据采集成本低,只需要爬虫图书的信息并组合,文本不需要固定格式,可以根据实际情况进行自由地文本信息组合。
附图说明
[0092]
图1为本发明的方法流程示意图。
[0093]
图2为实施例提供的多模态指针生成网络模型示意图。
[0094]
图3为本发明的系统模块示意图。
具体实施方式
[0095]
附图仅用于示例性说明,不能理解为对本专利的限制;
[0096]
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
[0097]
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0098]
下面结合附图和实施例对本发明的技术方案做进一步的说明。
[0099]
实施例1
[0100]
本实施例提供一种多模态融合技术的图书宣传摘要生成方法,如图1所示,包括以下步骤:
[0101]
s1:获取包括图书信息的文本信息;
[0102]
s2:根据所述文本信息,基于textrank的抽取式摘要生成,生成第一摘要;
[0103]
s3:根据所述文本信息,基于多模态指针生成网络,生成第二摘要;
[0104]
s4:取第一摘要和第二摘要的并集为最终的图书宣传摘要。
[0105]
本发明究首先定义图书宣传文本摘要工作,输入包括图书图像和书名、作者、内容
简介等文本信息,输出用于图书宣传的短文本。提出的图书宣传文本摘要模型是基于textrank及指针生成器网络的。为了将视觉特征整合到指针生成器网络中,采用了三种策略,包括用全局视觉特征初始化编码器,用全局视觉特征初始化解码器,用局部视觉特征生成上下文表示。然后通过将textrank算法及指针生成器网络的结果取交集,得到更好的图书宣传文本摘要。
[0106]
步骤s1中的图书信息包括图书图像、书名、作者和内容简介,来源于网上电商平台。
[0107]
还可以使用更多的短文生成场景,如电商营销短文等。
[0108]
所述基于textrank的抽取式摘要生成,生成第一摘要,具体为:
[0109]
textrank算法作为一种经典的文本图排序算法,它利用文本本身的信息和结构特征来实现文本摘要的自动提取。其是基于pagerank算法的一种图排序的无监督方法,主要用于文本生成关键字和摘要。pagerank算法基于网页链接的数量和质量来衡量网页的重要程度,鉴于此,textrank算法将所要获取摘要的文本拆分成句子作为文本网络图中的节点,句子间的相似度用节点间的相似度来表示,从而构建基于句子结构关系的文本网络图。通过对文本网络图的迭代计算可以实现对文本中句子重要性进行排序,筛选出几个最重要的句子作为文本的摘要。其仅利用单篇文档本身的信息即可实现关键词提取、文摘。
[0110]
textrank算法的文本网络图可以表示为一个带权的无向网络图g=(v,e,w),其中:v为节点的集合,e为节点间各个边的非空有限集合,w为各边上权重的集合;假设v={v1,v2,...,vn},则记e={(vi,vj),vi∈v,vj∈v,w
ij
∈w,w
ij
≠0},w={w
ij
,1≤i≤n,1≤j≤n},其中w
ij
为节点vi与vj间边的权重值;通过余弦相似度方法计算可得到句子间的一个n
×
n的相似度矩阵sn×n:
[0111][0112]
矩阵sn×n为对称矩阵,且对角线上的元素值全部取1;
[0113]
由g和对应的相似度矩阵sn×n,可计算出每个节点的权重,对于任意节点vi,in(vi)表示指向vi的节点集合,out(vj)表示vi指向节点的集合,节点vi的权重计算式表示为:
[0114][0115]
式中:ws(vi)为节点vi的权重,d为阻尼系数,阻尼系数的取值不能过大也不能过小,过大会导致迭代次数激增,且算法的排序也极其不稳定,过小则会导致算法没有明显的效果,一般取值为0.85,ws(vj)表示上一次迭代后节点vj的权重值,w
ji
表示节点vj和节点vi间的相似度;
[0116]
则基于textrank的文本网络图中各节点的权重的计算式表示为:
[0117]
[0118]
式中:si和sj表示文本中的句子,ws(si)表示句子si在textrank网络图中的权重;
[0119]
通过迭代计算就能得到趋于正常和稳定的权重值后,依据句子的权重值大小对句子进行排序,根据实际需求选取适量排序靠前的句子,并按照其在原文中的顺序排序,生成文本摘要。
[0120]
textrank算法计算边权重的过程属于马尔可夫过程,通过迭代计算就能得到趋于正常和稳定的权重值。首次使用textrank算法计算各节点的权重时,需要指定每个节点的初始值,即自身的权重,设定所有节点的初始权重为1,则b0=(1,1,...,1)
t
,然后根据边的权重递归迭代计算至收敛:
[0121]bi
=sn×n·bi-1
[0122]
当bi与b
i-1
的差值小于阈值时,达到收敛,迭代计算结束。
[0123]
上述抽取式摘要生成过程可以替换成其它模型,如bertsum等;
[0124]
所述基于多模态指针生成网络,生成第二摘要,多模态指针生成网络的具体模型如图2所示,多模态指针生成网络模型属于多模态与生成式摘要模型的结合,具体为:
[0125]
对于文本特征,利用seq2seq模型得到一个文本嵌入向量;
[0126]
对于图像特征,利用基于模型隐藏状态初始化的视觉特征提取策略,得到视觉上下文向量;
[0127]
将所述文本嵌入向量和视觉上下文向量结合,计算得到多模态上下文向量;
[0128]
利用所述多模态上下文向量更新指针生成网络,所述指针生成网络用来预测单词,得到第二摘要。
[0129]
对于文本特征,所述seq2seq模型的结构为encoder-decoder模型,先用encoder将原文本编码成一个中间层的隐藏状态,然后用decoder来将该隐藏状态解码成为另一个文本,seq2seq模型在encoder端是一个双向的lstm,这个双向的lstm可以捕捉原文本的长距离依赖关系以及位置信息,编码时词嵌入经过双向lstm后得到编码状态,在decoder端,解码器是一个单向的lstm,训练阶段时参考摘要词依次输入(测试阶段时是上一步的生成词),在时间步t得到解码状态,使用编码状态和解码状态得到该时间步原文第i个词注意力权重,编码状态hi与解码状态s
t
如下所示:
[0130]hi
=f
enc
(xi,h
i-1
)
[0131]st
=f
dec
(s
t-1
,y
t-1
,c
t
)
[0132]
其中,f
enc
为编码函数,f
dec
为解码,y
t-1
为t-1步的生成词,c
t
是一个上下文向量,它由基于注意力的编码器隐藏状态的加权和生成,其分布如下:
[0133][0134]
α
t
=softmax(e
t
)
[0135]ct
=∑iα
t,ihi
[0136]
式中,e
t,i
指t阶段第i个词注意力权重、wa、va、ba均为学习权重,e
t
指的是t阶段的隐藏层权重;
[0137]
对于图像特征,对于一般的指针生成器网络,编码器的初始隐藏状态h0和h
n+1
为零向量,解码器的初始隐藏状态s0使用后向lstm的隐藏层状态和前向lstm隐藏层状态的最后一个隐藏状态:
[0138][0139][0140]
其中,wd、bw为学习参数。
[0141]
对于本实施例中的多模态融合部分,输入一个给定的图书封面或海报图像图像,使用resnet-101的最后一个池化层中提取预先训练的imagenet的全局的可视化向量q,并用它来初始化编码器和解码器:
[0142][0143][0144][0145]
式中,w
e1
、b
e1
、w
e2
、b
e2
、wf、vw、bf为学习参数;
[0146]
为了利用局部视觉特征增强上下文表征,提取目标特征vi作为局部的视觉特征,使用resnet-101初始化的mask r-cnn,然后使用可视化基因组数据集对其进行再训练,来自region proposal network的roi align层;
[0147]
除了对输入句子的单词的注意外,多模态指针生成模型还可以对图像的不同区域进行权重提取,应用了分层注意力机制,使模型对文本信息和视觉信息进行了不同的注意,我们使用跨模态注意策略计算视觉上下文向量
[0148][0149][0150][0151]
其中,w
l
、v
l
、b
l
为学习参数。
[0152]
将所述文本嵌入向量和视觉上下文向量结合,计算得到多模态上下文向量,采用了图像注意滤波器来消除视觉噪声,具体为:
[0153][0154][0155][0156][0157][0158]
式中,wg、vg、bg、wh、vh、wm、vm为学习参数,σ为sigmoid函数,通过激活函数映射后的文本向量,通过激活函数映射后的视觉图像向量,i
α
为通过激活函数映射后的融合上下文信息的视觉特征向量。
[0159]
所述指针生成器网络根据两个模块的概率分布来预测单词,即生成器和指针,生成器如下所示:
[0160][0161]
其中,wb、vb、bb为学习参数,p
gen
(w)为预测词汇w分布;
[0162]
指针则是从源序列中复制一个字y
t

[0163][0164]
其中,p
copy
(w)指的是单词是从源序列中复制而来的概率,w为预测单词;
[0165]
最后的分布是词汇量分布和注意力分布的加权和:
[0166]
p(w)=λ
t
p
gen
(w)+(1-λ
t
)p
copy
(w)
[0167]
其中,λ
t
∈[0,1]是时间序列的生成概率:
[0168][0169]
其中,bd、为学习参数,y
t-1
指的是t-1时间步的目标词;
[0170]
损失函数l是每个时间步长t中真实目标词y
t
的负对数似然:
[0171][0172]
其中,t表示总的时间长度,p(y
t
)指的是真实目标词的概率分布。
[0173]
所述取第一摘要和第二摘要的交集为最终的图书宣传摘要,具体为:
[0174]
使用python对两个模型的输出结果取并集,代码如下:
[0175]
all_union=list(set(s1).union(set(s2)))
[0176]
其中s1为textrank的输出结果,s2为多模态指针模型的输出结果,并针对最终结果all_union去更新多模态指针生成网络。
[0177]
实施例2
[0178]
本实施例在实施例1的基础上,针对数据集中的所有图书,使用了文本摘要模型生成了相应的宣传短文。以下是生成的例子:
[0179]
[0180][0181]
从表中所得到的宣传短文结果上看,本实施例所提出的生成式与抽取式结合的模型在图书文本摘要领域是有一定的参考作用。其不仅可以简单的总结了书的内容,同时还能对书进行评价,在图书推广中会具有应用价值。
[0182]
实施例3
[0183]
本实施例提供一种多模态融合技术的图书宣传摘要生成系统,如图3所示,包括:
[0184]
信息获取模块,所述信息获取模块用于获取包括图书信息的文本信息;
[0185]
第一摘要生成模块,所述第一摘要生成模块用于根据所述文本信息,基于textrank的抽取式摘要生成,生成第一摘要;
[0186]
第二摘要生成模块,所述第二摘要生成模块用于根据所述文本信息,基于多模态指针生成网络,生成第二摘要;
[0187]
输出模块,所述输出模块取第一摘要和第二摘要的交集为最终的图书宣传摘要。
[0188]
相同或相似的标号对应相同或相似的部件;
[0189]
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
[0190]
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1