基于知识增强注意力网络和组级语义的故事描述生成方法

文档序号:26992693发布日期:2021-10-19 21:13阅读:125来源:国知局
基于知识增强注意力网络和组级语义的故事描述生成方法

1.本发明涉及图像处理领域,尤其是涉及一种基于知识增强注意力网络和组级语义的故事描述生成方法。


背景技术:

2.用一段话对图像或者视频进行描述对人类来说是一件繁琐的事情,同时对机器来说,用一段流畅自然的语言对现实场景中发生的事情进行描述又是一项充满挑战的任务,故事描述任务的目的旨在对一组图像序列生成一段具有连贯性、准确性和想象力的描述语句,该项任务已经在近几年的计算机视觉和多媒体计算领域逐渐兴起并取得了长足发展。此外,故事描述任务还可以在现实世界中被广泛应用,例如帮助盲人理解社交媒体中图像内容,测试人工智能设备的各项尖端性能。
3.故事描述任务需要解决两大技术难点:
4.(1)在单张图中产生被提取区域特征的丰富信息表达;
5.(2)为图像序列提供发生事件的准确故事情节。
6.针对难点(1),许多研究者提出的故事描述方法专注于提取图像的区域检测特征或者高层卷积特征,然而上述提取的区域视觉特征仅能捕捉到图像固有和浅显的信息,无法挖掘到超出图像本身的那些具有多样性、创造性的隐含知识。近期一些工作使用基于场景图或常识图的图谱结构获取具有想象力的外部知识,取得了不错的结果,然而这些工作还是无法有效建立异质信息间的跨模态交互,造成故事描述模型的次优性能。
7.针对难点(2),许多统一的端到端故事描述模型旨在解决图像序列中全局一致性信息缺失的问题,其中循环卷积生成网络(rnn)和时序卷积网络(tcn)常被用来解决上述难题。然而,rnn和tcn都会因在长范围特征序列上的记忆消退问题导致模型优化困难,无法产生图像序列的主题一致性信息。


技术实现要素:

8.本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于知识增强注意力网络和组级语义的故事描述生成方法。
9.本发明的目的可以通过以下技术方案来实现:
10.一种基于知识增强注意力网络和组级语义的故事描述生成方法,该方法通过构建并训练端到端模型生成一组图像的故事描述,包括以下步骤:
11.1)提取图像的视觉特征和文本特征,所述的视觉特征包括区域检测视觉特征和组级高层语义特征,所述的区域检测视觉特征包括区域特征和语义标签,所述的文本特征为外部知识增强信息;
12.2)基于知识增强注意力网络kan对提取到的外部知识增强信息和区域检测视觉特征进行跨模态注意力特征关联和挖掘,获取区域注意力增强的文本信息和视觉特征;
13.3)基于构建组级语义模块gsm对提取到的组级高层语义视觉特征进行长序列一致
性依赖的关联,获取全局视觉语义聚合特征;
14.4)将区域注意力增强的文本信息和视觉特征、全局视觉语义聚合特征和单词编码特征组成多模态特征,输入多模态故事解码网络msd中生成具备可推理和连贯性的故事描述。
15.所述的步骤1)中,视觉特征的提取方法具体为:
16.基于回归框和分类的大规模物体检测网络提取高置信度区域物体特征作为区域检测视觉特征,基于预训练的大规模视觉分类网络提取高层语义特征;
17.外部知识增强信息的提取方法具体为:
18.基于提取到的语义标签,通过大规模常识知识推理网络进行推理获取高置信度的常识推理知识作为文本特征。
19.所述的步骤2)中,在知识增强注意力网络kan中,以文本特征和区域特征作为由自注意力单元和交叉注意力单元构成的级联跨模态注意力模块cca的输入,得到区域注意力增强的文本信息和视觉特征,包括注意力区域视觉特征和增强文本知识。
20.所述的步骤3)中,在组级语义模块gsm中,组级高层语义特征分别由多个二阶池化算法模块降维转化为多个特征张量,每个特征张量进行统一连接得到初始化的组级语义特征,在经过二阶池化算法模块进行长范围语义关联后得到全局视觉语义聚合特征。
21.所述的步骤4)具体包括以下步骤:
22.41)通过展平函数将注意力区域视觉特征和增强文本知识转换为区域视觉引导向量和知识引导向量;
23.42)通过由交叉注意力单元和lstm组成的区域视觉和全局视觉故事解码模块进行多模态推理;
24.43)根据得到的上下文向量产生当前单词编码,并转换为单词,构成故事描述。
25.该方法还包括以下步骤:
26.5)基于自动评价指标和人工评价指标的模型综合性能评估。
27.所述的自动评价指标包括bleu

1、bleu

2、bleu

3、bleu

4、meteor、rouge_l和cider,所述的人工评价指标从相关性、表达性和具体性三个方面评估。
28.所述的端到端模型具体包括:
29.特征编码模块:用以提取图像的视觉特征和文本特征;
30.知识增强注意力网络:用以生成区域注意力增强的文本信息和视觉特征
31.组级语义模块:用以挖掘全局语义聚合特征;
32.多模态特征解码模块:用以输出多语句组成的故事描述。
33.该方法对端到端模型进行端到端的训练和优化,训练损失函数l(θ)表示为:
[0034][0035]
其中,θ为训练过程中的优化参数,为参考的子故事g
n
中的第t个单词编码向量,n为序列图像的数量,t为生成的一句话中的单词数量,为第n张图像生成语句的似然估计。
[0036]
与现有技术相比,本发明具有以下优点:
[0037]
一、本发明提出了一种基于知识增强注意力网络和组级语义的故事描述生成方法,能够结合外部文本知识、区域视觉特征和全局语义信息,生成具有连贯性、准确性和想象力的一段故事描述。
[0038]
二、本发明提取图像的视觉和文本特征,视觉特征包括区域检测特征和高层语义特征,文本特征包括外部知识增强信息,通过不同模态的特征从不同视角挖掘图像的全局和局部语义信息,以获得更丰富的推理表达。
[0039]
三、本发明基于知识增强注意力网络,对提取的区域视觉特征和外部增强知识送入设计的级联跨模态注意力模块挖掘异质特征的内在和外在关联,获得区域注意力增强的文本信息和视觉特征。
[0040]
四、本发明将提取的组图高层语义特征送入设计的组级语义模块探索序列卷积特征的二阶关联,获取一组图像具有概括性的故事情节。
[0041]
五、本发明采用自动评测指标和人工评测指标进行模型性能的综合评估,该综合评估方法相较于单一的自动评测方法更加合理和全面,提升了故事描述评测结果的可信度。
附图说明
[0042]
图1为本发明的主要步骤流程示意图。
[0043]
图2为基于知识增强注意力网络和组级语义的故事描述框架。
[0044]
图3为自注意力和交叉注意力单元。
[0045]
图4为二阶池化算法的框架。
[0046]
图5为多模态故事解码网络的框架。
[0047]
图6为模型生成的故事描述示例。
具体实施方式
[0048]
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
[0049]
本发明提供一种基于知识增强注意力网络和组级语义的故事描述生成方法(kags),该方法提取图像的区域视觉文本特征和图像全局序列特征,通过知识增强注意力网络和组级语义模块构成的端到端模型生成一组图像的故事描述,该端到端模型分别包括特征编码模块、知识增强注意力网络、组级语义模块和多模态特征解码模块,特征编码模块用于提取视觉和文本特征,知识增强注意力网络用于生成区域注意力增强的文本信息和视觉特征,组级语义模块用于挖掘全局语义聚合特征,多模态特征解码模块用于输出多语句组成的故事描述。
[0050]
如图1所示,该方法可分为以下步骤进行描述:
[0051]
s1、提取图像的视觉特征。
[0052]
本实例中,提取图像的视觉特征,包括区域检测特征和高层语义特征,具体的,给定一组包含n张相关图片作为输入,对于区域检测特征,选择基于大规模图像语义理解数据集visual genome预训练的物体检测网络faster

rcnn,根据检测得到的区域物
体回归框的置信度得分,选择每张图像中前36个被检测物体的区域特征和语义标签对于高层语义特征,选择基于大规模图像分类数据集imagenet预训练的物体分类网络resnet101,根据在不同层得到的不同尺度的卷积特征,选择最后一个2048维度的卷积层作为高层语义特征
[0053]
s2、提取外部文本知识和构建新字典。
[0054]
本实例中,提取的文本知识为大规模常识推理知识。对于外部文本知识,选择大规模常识知识推理网络concept net作为知识提取器,根据每张图像的语义标签l
n
,选择前20个高置信度得分的常识推理知识作为文本特征k
n
,构成一组文本知识对于包含9,837个单词的vist单词表,经过常识推理知识的扩充,现有单词表的大小被扩展为12,322,构建的新字典被故事描述模型用来训练和测试。
[0055]
s3、构建知识增强注意力网络(kan)。kan基于设计的级联跨模态注意力模块(cca)构建文本知识和视觉信息间的交互,进而在文本知识和视觉信息的重要特征维度上赋予更高的注意力权重,获得经过注意力增强的文本知识和视觉信息,图2中的(b)展示了kan的具体流程。
[0056]
本实施例中,cca模块中的自注意力单元(sa)和交叉注意力单元(ca)如图3所示。具体步骤包括:
[0057]
31)对于给定的query矩阵key矩阵和value矩阵通过将m
v
中的所有值和对应的m
q
以及m
k
中的权重相加得到注意力特征以上过程定义为:
[0058][0059]
其中,m和d分别代表尺度因子、向量个数和特征维度。
[0060]
32)然后又使用了包含h个平行子空间的多头注意力机制,注意力特征f被定义为:
[0061]
f=multihead(m
q
,m
k
,m
v
)=[head1,head2,...,head
h
]w
o
[0062][0063]
其中,和是第i个头的可学习投影矩阵,同时
[0064]
33)引入的多头注意力机制随后被用在设计的自注意力单元和交叉注意力单元中,紧接着定义包含点乘操作、linear层和batchnorm层的函数ls(
·
)。在图3中,给定每张图像的视觉特征f
v
或者文本特征f
t
,自注意力单元输出的自注意力特征表示为:
[0065]
sa(f
v
)=ls(multihead(f
v
,f
v
,f
v
))
[0066]
sa(f
t
)=ls(multihead(f
t
,f
t
,f
t
))
[0067]
类似的,视觉特征f
v
和文本特征f
t
可以被同时送入交叉注意力单元,输出的交叉注意力特征表示为:
[0068]
ca(f
t
,f
v
)=ls(multihead(f
t
,f
v
,f
v
))
[0069]
34)此时,图2中(b)中设计的cca模块可以通过级联p

1个层得到,表示为:
[0070][0071]
其中,和分别代表第p层中的输入文本知识、输入区域视觉特征、输出文本知识和输出区域视觉特征。对于初始输入特征设置为和最终,cca的输出作为增强文本知识和注意力区域视觉特征。
[0072]
s4、构建组级语义模块(gsm)。gsm由若干个二阶池化算法(sop)构成,获得全局一致性语义指导,具体步骤如下:
[0073]
41)如图4所示,对于给定的卷积特征张量其中h、w和d分别代表特征张量的长、宽和通道维度。sop首先通过1
×
1的卷积将通道维度从d降到c,然后sop将h
×
w
×
c的特征张量转化为c
×
c的协方差矩阵。最后,一个row

wise的卷积层和一个1
×
1的卷积层将c
×
c协方差矩阵转为1
×1×
d的特征张量以突出具有高价值的特征通道。sop被定义为:
[0074][0075]
其中*代表矩阵相乘,代表将特征张量从大小h
×
w
×
c拉伸到(hw)
×
c的重构操作,f1×1和f
row
分别代表1
×
1的卷积和row

wise卷积。
[0076]
42)如图2中的(c)所示,gsm首先将每一个特征表示送入sop,然后sop输出被处理的特征张量接着所有被处理的特征张量被统一连接为以产生初始化的组级语义特征。同样的,gsm再次将a送入sop以获得通道维度的长范围语义关联,产生全局视觉语义聚合该步骤被定义为:
[0077][0078]
最终,sop增强了整体特征的非线性表达能力,gsm获得了组级卷积特征的全局一致性表示。
[0079]
s5、构建多模态故事解码网络(msd),旨在充分利用s3和s4中生成的增强文本知识、注意力区域视觉特征和全局视觉语义聚合,最终生成具备可推理的和连贯性的故事描述。多模态故事解码网络的过程如图5所示,具体步骤如下:
[0080]
51)为了生成故事的第n个语句,对于给定的注意力区域视觉特征增强文本知识全局视觉语义聚合解码网络首先利用2个linear层,1个softmax层组成的展平函数,将转换为将转换为得到区域视觉引导向量和知识引导向量其中m、k和d分别表示检测区域框、关系图和特征通道的数量。
[0081]
52)为了进一步挖掘视觉特征,增强文本信息和单词编码特征的紧密联系,设计了由交叉注意力单元和lstm组成的区域视觉和全局视觉故事解码模块完成多模态推理。具体的,对于在第t个时间步的第n张图像的区域视觉信息推理(图5左),解码器将先前区域隐藏
状态知识引导向量先前单词编码和区域视觉引导特征送入lstm,输出当前区域隐藏状态然后,解码器将认定为交叉注意力单元的query值,将设置为交叉注意力单元的key值或value值。最后,为了增强和之间的联系,带一个编码层的交叉注意力单元的输出可以获得带注意力区域特征表示该步骤被定义为:
[0082][0083][0084]
其中,embed(

)代表全连接层,代表连接操作。类似的,给定先前全局隐藏状态知识引导向量先前单词编码和全局视觉语义聚合全局视觉信息推理(图5右)可以产生当前全局隐藏状态和带注意力全局特征表示该步骤被定义为:
[0085][0086][0087]
53)接下来,通过连接和得到上下文向量紧随着一个glu层和一个linear层,最终上下文向量送入softmax层产生当前单词编码该步骤产生的单词概率分布被定义为:
[0088][0089]
其中,预测p代表的是在visual storytelling(vist)数据集的词汇表上的概率分布。最终单词编码被转换为单词获得故事集s的子故事其中t表示子故事s
n
的长度。
[0090]
本发明(kags)生成的故事描述示例如图6所示。
[0091]
s6、对上述故事描述方法进行基于自动评价指标和人工评价指标的模型综合性能评估。
[0092]
本实施例中,采用的自动评价指标包括bleu

1、bleu

2、bleu

3、bleu

4、meteor、rouge_l和cider。采用的人工评价指标主要从相关性、表达性和具体性三个方面来评估。具体如下:
[0093]
61)对于自动评价指标,bleu是一种经典的机器翻译评价指标,旨在通过相似度度量方法得到预测句子和参考句子中n元组同时出现的概率。meteor旨在基于召回率标准的测量获得和人工评价高度相关的结果。rouge_l是通过最长公共子序列计算得到预测语句和参考语句的相关性得分。cider是通过计算向量间的余弦相似度测量获得预测语句和参考语句的相似度得分。
[0094]
62)对于人工评价指标,相关性要求能准确描述一组图像序列中发生事件的主题;表达性要求能产生具有语法的、想象的、连贯的和丰富的语句;具体性要求能提供图像内容中叙述的和详细的描述。
[0095]
为了验证本技术方法的性能,设计了以下实验。
[0096]
本实施例和另外12种先进的故事描述模型进行对比,其具体细节如下:
[0097]
(1)seq2seq,一个基于rnn结构的初始故事描述模型;(2)barnn,基于gru模块的关系注意力模型;(3)h

attn

rank,一个分层次的注意力循环网络;(4)xe

ss,一个基于lstm的编码解码模型;(5)aerl,一个对抗的奖励优化框架;(6)hpsr,一个分层次的图像编码解码模型;(7)hsrl,一个分层次的强化学习框架;(8)vscmr,一个语义感知挖掘网络;(9)reco

rl,一个相关性文本强化学习方法;(10)inet,一个想象力内容推理网络;(11)sgvst,一个场景图知识增强模型;(12)irw,一个多图知识推理框架。
[0098]
具体实验结果如表1和表2所示。
[0099]
表1本发明和其他故事描述模型在vist数据集上的性能对比(%)。
[0100][0101]
表2本发明和其他故事描述模型的人工评测结果,其中tie表示测试者无法判别哪个方法更优。
[0102][0103][0104]
由表1和表2可知,本发明方法相较于其他故事描述模型,获得了更优的结果。
[0105]
以上详细说明了本发明优异的具体实施例。应当理解,本领域的研究人员无需额外的创造性劳动就能够依据本发明的思路做出诸多改进。因此,凡本技术领域中技术人员依据本发明的思路在现有技术的基础上通过对模型的逻辑推理、结构改造或者实验分析可以得到的技术方案,皆应落入本发明保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1