一种基于子空间的自步跨模态匹配方法

文档序号:10570425阅读:257来源:国知局
一种基于子空间的自步跨模态匹配方法
【专利摘要】本发明公开一种基于子空间的自步跨模态匹配方法。该方法通过提取数据集中不同模态数据的特征向量;利用子空间自步学习得到训练集中与不同模态对应的不同映射矩阵,利用该映射矩阵将测试集中数据样本的不同模态类别映射到同一空间,使训练集与测试集的数据映射到统一空间,然后度量测试集中的查询数据和目标数据间的相似度从而得到跨模态匹配的结果。本发明可将不同模态的数据映射到统一空间度量,且在映射同时进行样本选择和特征学习,提高了匹配的鲁棒性和准确性。
【专利说明】
一种基于子空间的自步跨模态匹配方法
技术领域
[0001] 本发明涉及模式识别技术领域,尤其是一种基于子空间的自步跨模态匹配方法。
【背景技术】
[0002] 现实中的数据往往具有多种模态。比如网页数据既包含图片信息,又包含文本信 息;视频数据同时包含音频信息和图片信息。跨模态匹配的根本任务是以一种模态作为查 询条件,匹配出与之相似的异质模态信息。传统跨模态匹配方法大多是监督学习方法,它们 都是通过语义标签来减少异质模态之间的鸿沟,但是无法处理无标签信息,人工标记数据 又是一个费时费力的工作。此外,有些无监督的方法没有考虑特征的判定性和相关性和样 本间的语义相似性,无法满足人们的日常需求。因此亟需一种高效的无监督跨模态匹配方 法。

【发明内容】

[0003] 本发明目的在于解决上述技术问题而提供一种基于子空间的无监督自步跨模态 匹配方法,能有效地跨越不同模态媒体之间的语义鸿沟,进而使得跨媒体搜索引擎返回的 结果更加准确。
[0004] 本发明是这样实现的,一种基于子空间的自步跨模态匹配方法,包括步骤:
[0005] S1,收集不同模态的数据样本建立跨模态数据库,并将所述跨模态数据库分为训 练集和测试集;
[0006] S2,提取所述跨模态数据库中不同模态数据样本的特征向量;
[0007] S3,基于所述训练集中不同模态数据的特征向量,得到与所述不同模态分别对应 的映射矩阵;
[0008] S4,利用所述映射矩阵将所述测试集中数据样本的模态类别映射到同一空间;
[0009] S5,将映射到同一空间的测试集中同一模态类别的数据作为查询集,另一模态类 别的数据作为目标集;
[0010] S6,通过度量数据间的相似度,在所述目标集中查询与所述查询集中的一个数据 样本相匹配的数据,从而得到跨模态匹配的结果。
[0011] 根据本发明的方法,可以将不同模态的多媒体数据映射入统一空间进行度量,且 在映射的同时进行了样本选择与特征学习,从而提高了检索的鲁棒性和准确性,具有良好 的运用前景。
【附图说明】
[0012] 图1是本发明提供的基于子空间的自步跨模态匹配方法的流程图;
[0013] 图2是在图像和文本两个模态下子空间匹配的具体模型图。
【具体实施方式】
[0014] 为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照 附图,对本发明进一步详细说明。
[0015] 本发明通过学习两个映射矩阵,将不同模态的数据映射到同一个子空间中去,并 在映射的同时进行样本选择和特征学习,并使用多模态图约束保持数据模态内和模态间的 相似性;在学习到的子空间中度量不同模态的数据的相似性,以此来实现跨模态匹配。
[0016] 参见图1所示,一种基于子空间的自步跨模态匹配方法,包括以下步骤:
[0017] 步骤S1,收集不同模态的数据样本,建立跨模态数据库,并将所述跨模态数据库分 为训练集和测试集;
[0018] 需要说明的是,本发明中所述不同模态可以为文本、图像等模态。
[0019] 为了便于说明,下面以文本和图像两个模态的数据为例进行解释本发明。
[0020] 具体的,将所述跨模态数据库分为训练集和测试集时,可根据实际需要进行划分, 如可将所述跨模态数据库中的80%的数据划分为训练集,剩下的20%的数据划分为测试 集,形成训练样本库与测试样本库。
[0021] 步骤S2,提取所述跨模态数据库中不同模态数据样本的特征向量,形成相应的不 同模态数据特征库;
[0022] 本步骤中,不但要提取训练集的训练样本库中不同模态数据样本的特征向量,也 要提取测试集的测试样本库中不同模态数据样本的特征向量,从而形成训练集与测试集的 文本特征库与图片特征库;
[0023]本发明中,对于文本数据库中的文本模态数据样本和图像数据库的图像模态数据 样本,可分别使用LDA算法与SIFT算法进行特征提取;
[0024] LDA算法即隐狄雷克雷分布(Latent Dirichlet Allocation,LDA)算法,SIFT算法 即尺度不变特征变换(Scale-Invariant Feature Transform,SIFT)算法。
[0025] 步骤S3,基于所述训练集中提取的不同模态数据的特征向量,通过子空间自步学 习(即通过建立目标函数并通过迭代算法求解目标函数),得到与所述不同模态分别对应的 特征映射矩阵;
[0026] 对步骤S3详细介绍前,先介绍矩阵运算符:对于矩阵Me3Txm,第i行和第j列分别 为mi和是矩阵的第i行和第j列元素。矩阵M的Frobenius范数为||M:||f= , 矩阵M的迹为Tr(M)= 2iMi,i。
[0027] 假设有图片和文本两个特征集,\=[又>;,.._0肢-,\?乂,...乂]£舻' 其中cU是第i个模态的维度,n是训练图像-文本对的数目。每一对图像-文本对{?!具有 相同的隐含内容,且属于相同类别,即硬配对约束,但每个图像-文本对的离散标签是未知 的。
[0028] 所述步骤S3包括以下步骤:
[0029]步骤S31,基于所述训练集中不同模态数据的特征向量建立目标函数:
[0032] 其中,a和0为权重参数,取值范围为10-6~1〇2;
[0033] 其中,a,b分别代表两种模态,p,q的取值分别为a,b两种模态中的一种,UP是p模态 对应的映射矩阵,U PT是矩阵1^的转置,乂1)是口模态数据特征,Uq是q模态对应的映射矩阵,乂 (1是 q模态数据特征,XqT是矩阵Xq的转置,Y是聚类标记,V e肢"代表损失项权重,Vi是向量V的第i 个元素,k为常量,代表自步学习的学习率,a和0为权重参数,|| ? ||F为求取F-范数操作,Tr (?)是矩阵的迹,LPq是模态p和模态q的拉普拉斯矩阵,c,n分别为矩阵Y的行数和列数,Y1;J 是矩阵Y的第i行、第j列的元素。
[0034] 步骤S32,求解所述目标函数(如通过迭代算法)得到与所述不同模态分别对应的 特征映射矩阵:
[0035] 所述步骤S32进一步包括以下步骤:
[0036] 步骤S321,使用k均值算法对文本特征聚类以初始化聚类标记Y,然后计算多模态 图约束拉普拉斯矩阵L,设置映射矩阵UP,pG {a,b}的初始值为单位矩阵,设置最大迭代次 数N,迭代次数的初始值为1;
[0037] 使用k均值算法对文本特征聚类以初始化聚类标记Y,是指先对文本特征聚类,然 后将文本特征聚类结果作为聚类标记Y的初始值;
[0038] 多模态图由两部分组成:一是不同模态样本特征之间的相似性;二是同一模态内 不同样本特征之间的相似性。前者相似性的计算是根据聚类标签 Y得到;后者是通过计算高 斯核函数得到。
[0039] 步骤S322,计算每个样本的经验损失,将其与阈值k比较,得出损失项权重Vl;
[0041] 其中乂二II⑴X-&是第i个样本的损失函数。
[0042] 步骤S323,通过求解下式中的线性问题来求得映射矩阵UP: (X/)WrXj +aXpbppXTp +mvp
[0043] , ^XpWtYt ~aXphpqXl^q
[0044] 其中,Y G {〇,1}为类别标签矩阵,n为特征向量的个数,c为模态类别的个数,I为 单位矩阵,V = diag(V),ve:lT代表损失项的权重,VT是矩阵V的转置;
[0045] 步骤S324,一列一列地优化Y,即优化Y的其中一列时,固定其它所有列,一次学习 Y 的一列。求解Y的目标函数等价于: min Tr(\'\l YV^ + oTrCEY' YFr)
[0046] -7-r(GY/)-rr(HY/) , .c s.i. Y e J0,H'x,;= hV/ e[1?n]. i
[0047] 其中E = U^X",F = 〇 = 11 = 11;>;^\通过计算,将上式 转化为: miny'f^YV o + aYF' e + aYE f-g-h) y
[0048] f , st. V e =1
[0049] 其中,u是矩阵V的第i列,V是矩阵V移出第i列后得到的矩阵;e是矩阵E的第i列,E 是矩阵E移出第i列后得到的矩阵;f是矩阵F的第i列,F是矩阵F移出第i列后得到的矩阵;g 是矩阵G的第i列,G是矩阵G移出第i列后得到的矩阵;h是矩阵H的第i列,H是矩阵H移出第i 列后得到的矩阵。以上对y的优化使用如下公式解决: i=h(m)
[0050] , |〇 otherwise
[0051 ] 其中m=2YVTu+aYETe+aYETf-g-h,h(m)返回m中最大值的索引。经过2~3内部迭代, 可以获得完整的Y。
[0052]步骤S325,W为多模态图的相似性矩阵,通过下式计算W: \wa wab"
[0053] W = ,, WbH yWb
[0054]其中,y为模态间的相似性矩阵与同一模态内的局部相似性的权重参数,取y = l,Wab = Wba = YTY是模态间的相似性矩阵,WlPWb为同一模态内的局部相似性,采用高斯核函 数
渡量局部相似性:
[0055] Wp=\di^,X'p) 〇rX^ , " [() otherwise
[0056]其中Nr( ?)是最邻近的r个样本的集合。
[0057]步骤S326,判断此时的迭代次数是否小于最大迭代次数N,若是则转向步骤S322继 续迭代;若否则停止迭代,得到所述映射矩阵UdPUb。
[0058] 步骤S4,将所述测试集中多模态数据样本的模态类别,利用步骤S3得到的特征映 射矩阵映射到同一子空间;
[0059] 步骤S5,将映射到同一子空间后的测试集中同一模态类别的数据作为查询集,另 一模态类别的数据作为目标集;
[0060] 步骤S6,对于所述查询集中的一个数据样本,通过度量数据间的相似度,得到所述 目标集中与查询集中的一个数据样本相匹配的数据,从而得到跨模态匹配结果。
[0061] 本发明中,所述数据之间的相似度可以使用余弦距离来度量,对于余弦距离来说, 距离越近说明这两个数据越相似。
[0062] 附图2中,图片提取SIFT特征后形成相应的方框图,文本提取LDA特征后形成相应 的柱状图,在图片提取SIFT特征之后形成的特征空间沢: 7中,方块代表每个图片的SIFT特征 在图像特征空间下的点,虚线圈表示圈中的这些方块点属于同一个聚类标记。文本提取LDA 特征之后的文本特征空间中,虚线圈中的圆圈代表每个文本的LDA特征在特征空间下的 点。虚线圈是表示圈中的这些点属于同一个聚类标记,语义组带箭头虚线表示指向的图像 特征空间与文本特征空间中分别属于同一个聚类标记的对应的特征点对应具有相同的聚 类标签,配对带箭头实线表示分别属于同一个聚类标记的对应形成的图像-文本数据对,在 图片特征空间和文本特征空间投影后的公共子间货€中,通过自步学习选出来训练的样本 对,形成自步学习对。
[0063] 为了验证本发明方法的有效性,接下来将本发明方法应用于Wiki多模态数据库。 该数据库中包含10个语义范畴的多模态数据,包括2866对相同语义信息的文本和图像,随 机选取其中1300对文本和图像样本作为训练集,选取其中1566对文本和图像样本作为测试 集,应用本发明方法的步骤如下:参见图2所示;
[0064] 1)对于所述数据库中的数据,根据模态类别的不同提取不同的特征向量:对于文 本模态提取10维LDA语义特征,对于图像模态提取128维SIFT特征;
[0065] 2)将所述训练集中文本模态特征矩阵和图像模态特征矩阵,构造目标函数,通过 最小化目标函数学习得到文本和图像对应的两个映射矩阵,所述映射矩阵的学习过程通过 迭代过程实现;
[0066] 3)根据所述模态类别的不同,将测试集中的文本数据的特征向量和图像数据的特 征向量通过学习得到的映射矩阵映射到同一子空间中;
[0067] 4)将测试集中的文本数据作为查询集,图像数据作为目标集,在查询集中给定一 个文本文档,能够得到目标集中和文本文档最相似(即余弦距离最近)的图像。
[0068] 综上,本发明提出的基于子空间的自步跨模态匹配方法,能有效地跨越了不同模 态数据之间的语义鸿沟,与传统跨模态方法比较,易于实现、性能稳定,识别准确率高。另 外,本方法用自步学习框架,即按简单到复杂的顺序选择样本进行学习(简单和复杂的定义 根据每个样本的经验损失确定),避免目标函数陷入局部极小值,提高聚类精度;同时使用 多模态图约束,保持数据映射前后结构的相似性,挖掘出一个判别的隐空间,从而实现跨模 态匹配。
[0069] 以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详 细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡 在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保 护范围之内。
【主权项】
1. 一种基于子空间的自步跨模态匹配方法,其特征在于,包括步骤: Sl,收集不同模态的数据样本建立跨模态数据库,并将所述跨模态数据库分为训练集 和测试集; S2,提取所述跨模态数据库中不同模态数据样本的特征向量; 53, 基于所述训练集中不同模态数据的特征向量建立目标函数并求解目标函数,得到 与所述不同模态分别对应的映射矩阵; 54, 利用所述映射矩阵将所述测试集中数据样本的模态类别映射到同一空间; 55, 将映射到同一空间的测试集中同一模态类别的数据作为查询集,另一模态类别的 数据作为目标集; S6,通过度量数据间的相似度在所述目标集中查询与所述查询集中的一个数据样本相 匹配的数据,从而得到跨模态匹配的结果。2. 根据权利要求1所述方法,其特征在于,所述不同模态为双模态。3. 根据权利要求2所述方法,其特征在于,所述双模态为文本和图像。4. 根据权利要求3所述方法,其特征在于,对于文本模态数据样本提取隐狄雷克雷分布 特征向量;对于图像多媒体数据样本提取尺度不变特征变换特征向量。5. 根据权利要求1所述方法,其特征在于,步骤S3包括以下步骤: S31,基于所述训练集中不同模态数据的特征向量建立目标函数; S32,使用迭代算法求解所述目标函数,得到与所述不同模态分别对应的映射矩阵; 所述目标函数为:其中,a,b分别代表两种模态,p,q的取值分别为a,b两种模态中的一种,Up是p模态对应 的映射矩阵,UPT是矩阵UW转置,Xt^p模态数据特征,Uq是q模态对应的映射矩阵,X t^q模 态数据特征,XqT是矩阵Xq的转置,Y是聚类标记,veir代表损失项权重,V 1是向量V的第i个 元素,k为常量,代表自步学习的学习率,α和β为权重参数,I I · I |F为求取F-范数操作,Tr (·)是矩阵的迹,Lpq是模态p和模态q的拉普拉斯矩阵,c,n分别为矩阵Y的行数和列数,Y1,j 是矩阵Y的第i行、第j列的元素。6. 根据权利要求7所述方法,其特征在于,步骤S32包括步骤: S321,使用k均值算法对文本特征聚类以初始化聚类标记Y,然后创建多模态图,多模态 图是由不同模态数据特征之间的语义聚类标记和同一模态中数据特征之间的相似性构建; 再计算多模态图约束拉普拉斯矩阵L,设置映射矩阵U P,pe {a,b}初始值都为单位矩阵,设 置最大迭代次数N,迭代次数的初始值为1; S322,计算每个样本的经验损失并与阈值k比较,得出每个样本的损失项权重Vi;其中,A = ||(liyp-yK是第i个样本的损失函数; 5323, 通过求解下式中的线性问题求得映射矩阵Up:其中,Ye {〇,?ΓΧη为类别标签矩阵,n为特征向量的个数,c为模态类别的个数,I为单位 矩阵,V = diag(v),VeEn代表损失项的权重,Vt是矩阵V的转置; 5324, 一列一列地优化聚类标记Y,即优化聚类标记Y其中一列时,固定其它所有列,一 次学习 Y的一列,求解Y的目标函数等价于:其中F=IJfxs, G = I^xaW1',通过计算,将上式转化 为:其中,U是矩阵V的第i列,V是矩阵V移除第i列后得到的矩阵;e是矩阵E的第i列,E是矩 阵E移除第i列后得到的矩阵;f是矩阵F的第i列,F是矩阵F移除第i列后得到的矩阵;g是矩 阵G的第i列,G是矩阵G移除第i列后得到的矩阵;h是矩阵H的第i列,H是矩阵H移除第i列后 得到的矩阵,以上对y的优化使用如下公式解决:其中m = 2YVTu+aYETe+aYETf-g-h,h(m)返回m中最大值的索引,经过2~3内部迭代,可以 获得完整的Y; S325,W为多模态图的相似性矩阵,通过下式计算W:其中,γ为模态间的相似性矩阵与同一模态内的局部相似性的权重参数,取γ =i,wab =wba=YTY是模态间的相似性矩阵,w,wb为同一模态内的局部相似性,采用高斯核函数量局部相似性:其中Nr( ·)是最邻近的r个样本的集合; S326,判断此时的迭代次数是否小于最大迭代次数N,若是则转向S322继续迭代;若否 则停止迭代,得到所述映射矩阵UjPUb。7.根据权利要求1所述方法,其特征在于,度量数据样本之间的相似度使用余弦距离来 度量。
【文档编号】G06K9/62GK105930873SQ201610274436
【公开日】2016年9月7日
【申请日】2016年4月27日
【发明人】赫然, 孙哲南, 李志航, 梁坚, 曹冬
【申请人】天津中科智能识别产业技术研究院有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1