一种基于面向场景判别性分析的图像到视频人脸识别方法

文档序号:6522045阅读:297来源:国知局
一种基于面向场景判别性分析的图像到视频人脸识别方法
【专利摘要】本发明的实施方式提供了一种基于面向场景判别性分析的图像到视频人脸识别方法,其包括步骤:1)检测输入静止图像及人脸视频中的人脸区域,并将所述人脸区域归一化到相同大小;2)提取所述归一化处理后的人脸区域的特征,并进行降维;3)对所提取的静止场景人脸和视频场景人脸建立不同的映射矩阵,计算原始特征在映射空间中的特征表示;4)根据身份耦合的图像视频人脸训练数据,通过约束映射空间中人脸特征的类内紧致性和类间分离性,优化静止场景和视频场景的映射矩阵参数;5)将测试的人脸视频和数据库中的人脸图片分别输入对应的映射矩阵计算新特征,采用最近邻算法识别视频人脸身份。本发明对不同的场景建立不同的映射矩阵,有效地建模不同场景的数据特征,并利用线性判别分析学习优化面向场景的映射矩阵,使得变换后的特征具有良好的区分性。
【专利说明】一种基于面向场景判别性分析的图像到视频人脸识别方法
【技术领域】
[0001]本发明属于视频人脸识别【技术领域】,具体涉及一种基于面向场景判别性分析的图像到视频人脸识别方法。
【背景技术】
[0002]随着摄像头等信息采集设备的普及,视频数据资源逐渐在日常生活中得到广泛的应用。其中一个重要的应用包括各种场景中的面部照片匹配,如识别驾照,护照,身份证中的人脸图像。因此,基于视频数据的人脸识别研究称为了一个紧急而重要的任务。这里,我们主要关注现实世界中的图像到视频的人脸识别应用。在这种场景中,数据库中的每个人只注册单张或者少量的高质量静止图片,而查询图片是多个视频片段。这些视频通常是从不同环境中获取的,受光照、姿态、运动模糊等因素干扰,视频帧的质量较低且比较模糊。由于不同场景中的数据通常表现出非常不同的特征,而且这些场景变化带来的图片差异可能使得同一个人的不同场景人脸图片位于不同的子空间。这些因素导致图片到视频的人脸识别问题存在很大的挑战。
[0003]目前大多数研究主要致力于图片到图片或视频到视频的人脸识别问题。CN101668176A的中国专利提供了一种雾天图像中人脸的识别方法和识别装置,CN102955933A提供了一种基于人脸识别的家居门禁控制方法,CN102223520A中提供的智能人脸识别监控系统,这些方法通常假设注册数据和查询数据都是图片或者视频,并且采用相同的特征提取或者特征变换方法来来提取数据信息,然后直接计算它们的相似度,进行人脸识别。尽管常用的基于转换的方法,如主成分分析(PCA)、线性判别分析(LDA),能获得比较好的投影空间用于图像表述。但是当注册数据和测试数据的分布存在较大的差异的情况下,这些方法的性能会严重的退化。为了解决这个问题,有人提出了一种改进的LDA方法,这个方法采用偏权重和局部权重策略来强调交叉场景的人脸图像对。这类方法的缺点在于只用单一的映射来建模所有场景的数据特征。

【发明内容】

[0004]本发明的目的是要解决交叉场景人脸识别中人脸数据特征分布差异大的问题,为此,本发明提供了一种基于面向场景判别性分析的图像到视频人脸识别方法。
[0005]为了实现所述目的,本发明的一种基于面向场景判别性分析的图像到视频人脸识别方法,其特征在于,包括以下具体步骤:
A)首先,检测输入静止人脸图片和人脸视频中的人脸位置,提取人脸区域图像,将人脸区域归一化为大小为Zixifr的矩形图像区域,H表示矩形图像区域的高度,W表示矩形图像区域的宽度;
B)在归一化的人脸区域图像上提取特征,并用主成分分析方法对特征降维;
C)对静止场景和视频场景分别假设不同的映射矩阵,将原始的静止图片人脸特征和视频人脸特征分别输入到对应的变换矩阵后,获得在映射空间中的特征表述;D)训练集中的每个人都提供一张静止人脸图片和多个环境变化的人脸视频片段;通过约束映射空间中同一人在静止场景和视频场景中的人脸特征距离小,而不同人的人脸特征距离大,构造面向场景的判别分析优化目标;利用梯度下降法求解目标函数,得到最优的映射矩阵参数,使得不同场景人脸特征在映射空间中达到良好的区分性能;
E)将测试视频人脸图片输入视频场景映射矩阵,数据库中所有的静止图片人脸输入静止场景映射矩阵,分别得到转换后的新特征;计算测试人脸视频到数据库中所有静止人脸图片的距离,选择与测试视频距离最小的图片人脸作为测试视频的身份。
[0006]进一步,所述步骤B)中,图像上提取的特征类型是纹理特征、幅值特征、相位特征LPQ或上述特征的组合;基于原始图像提取的特征维数比较高,而且含有很多的冗余信息和干扰信息,因此采用主成分分析方法获得降维矩阵,原始特征通过降维矩阵后获得低维特征。
[0007]进一步,纹理特征为LBP或HLBP,幅值特征为Gabor幅值,相位特征为LPQ。
[0008]进一步,所述步骤C)中,;对静止场景和视频场景分别对应不同的映射矩阵
(?:巧?,用它们来分别建模两种场景的数据特征;原始特征I输入映射矩阵F后,在映射空间中的特征表示为
[0009]进一步,所述步骤D)中,训练集包括高质量的静止人脸图片集S和低质量的人脸视频集F ;包含巧个人的静止人脸集表示为
【权利要求】
1.一种基于面向场景判别性分析的图像到视频人脸识别方法,其特征在于,包括以下具体步骤:A)首先,检测输入静止人脸图片和人脸视频中的人脸位置,提取人脸区域图像,将人脸区域归一化为大小为的矩形图像区域,H表示矩形图像区域的高度,W表示矩形图像区域的宽度;B)在归一化的人脸区域图像上提取特征,并用主成分分析方法对特征降维;C)对静止场景和视频场景分别假设不同的映射矩阵,将原始的静止图片人脸特征和视频人脸特征分别输入到对应的变换矩阵后,获得在映射空间中的特征表述;D)训练集中的每个人都提供一张静止人脸图片和多个环境变化的人脸视频片段;通过约束映射空间中同一人在静止场景和视频场景中的人脸特征距离小,而不同人的人脸特征距离大,构造面向场景的判别分析优化目标;利用梯度下降法求解目标函数,得到最优的映射矩阵参数,使得不同场景人脸特征在映射空间中达到良好的区分性能;Ε)将测试视频人脸图片输入视频场景映射矩阵,数据库中所有的静止图片人脸输入静止场景映射矩阵,分别得到转换后的新特征;计算测试人脸视频到数据库中所有静止人脸图片的距离,选择与测试视频距离最小的图片人脸作为测试视频的身份。
2.权利要求1所述的图像到视频人脸识别方法,其特征在于,所述步骤B)中,图像上提取的特征类型是纹理特征、幅值特征、相位特征LPQ或上述特征的组合;基于原始图像提取的特征维数比较高,而且含有很多的冗余信息和干扰信息,因此采用主成分分析方法获得降维矩阵,原始特征通过降维矩阵后获得低维特征。
3.根据权利要求2所述的图像到视频人脸识别方法,其特征在于:纹理特征为LBP或HLBP,幅值特征为Gabor幅值,相位特征为LPQ。
4.根据权利要求1-3中任一项所述的图像到视频人脸识别方法,其特征在于,所述步骤C)中,对静止场景和视频场景分别对应不同的映射矩,用它们来分别建模两种场景的数据特征;原始特征X输入映射矩阵F后,在映射空间中的特征表示为
5.根据权利要求1-3中任一项所述的图像到视频人脸识别方法,其特征在于,所述步骤D)中,训练集包括高质量的静止人脸图片集S和低质量的人脸视频集F ;包含巧个人的静止人脸集表示为
6.根据权利要求5所述的图像到视频人脸识别方法,其特征在于:形成静止场景和视频场景中映射矩阵参数的具体步骤为:I)分别构建映射空间中人脸特征的类内紧致性约束及和类间分离性约束^ ;类内紧致性计算同一人的视频场景图片帧V和静止场景图片七的距离;类间分离性计算不同人的视频场视频片段的平均值和静止场景图片&的距离;计算表达式为
7.根据权利要求6中所述的图像到视频人脸识别方法,其特征在于,所述Ε)步中,将测试视频集& =吣仁P I输入视频场景映射矩阵,新特征计算为:
【文档编号】G06K9/00GK103605993SQ201310641441
【公开日】2014年2月26日 申请日期:2013年12月4日 优先权日:2013年12月4日
【发明者】不公告发明人 申请人:康江科技(北京)有限责任公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1