表情识别方法、装置、电子设备及计算机可读取存储介质

文档序号:30989943发布日期:2022-08-03 02:08阅读:119来源:国知局
表情识别方法、装置、电子设备及计算机可读取存储介质

1.本技术涉及表情识别技术领域,具体而言,涉及一种表情识别方法、装置、电子设备及计算机可读取存储介质。


背景技术:

2.人脸表情是最直接,最有效的情感模式。通过对拍摄得到的人脸图像进行表情识别,能够得到人脸呈现的表情,以对表情的类型进行判断。常见的几种基本表情可以包括:生气、厌恶、恐惧、开心、伤心和惊讶这几种表情。但是人类有时会为了某些目的,故意使用伪装表情来掩盖真实的情绪,伪装表情属于复杂表情,无法通过对基本表情来表征伪装表情。
3.由于伪装表情在环境、个体差异等因素下的复杂性,现有的对伪装表情进行识别时,识别时的面部特征相似度较高,无法对伪装表情的多种类型进行区分,且识别时无法对状态接近的混合表情进行识别,导致识别伪装表情的准确率较低。


技术实现要素:

4.有鉴于此,本技术实施例的目的在于提供一种表情识别方法、装置、电子设备及计算机可读取存储介质,以改善现有技术中存在的对伪装表情识别的准确率较低的问题。
5.为了解决上述问题,第一方面,本技术提供了一种表情识别方法,所述方法包括:
6.提取目标视频序列中每一帧图像中的多个面部运动强度数据,其中,所述目标视频序列为伪装表情数据集中的任意一个伪装表情视频序列;
7.对多个所述面部运动强度数据进行编码,得到每一帧图像对应的强度特征向量;
8.将多个所述强度特征向量确定的强度特征矩阵输入分类器中进行分类,得到伪装表情识别结果。
9.在上述实现方式中,通过对目标视频序列中每一帧图像中能够表示人物做出伪装表情时面部肌肉运动的面部运动强度数据进行获取,能够以面部运动强度数据为基础,从面部运动强度数据的变化趋势中对伪装表情进行识别。通过对面部运动强度数据进行编码,能够对每一帧图像中的局部时空特征进行提取,以得到对应的强度特征向量。通过将多个强度特征向量组成的表征目标视频序列中全局时空特征的强度特征矩阵输入多种分类器中,能够以强度特征矩阵作为伪装表情识别任务的识别数据进行识别,得到对应的伪装表情识别结果。本技术对面部的特征信息进行提取和编码,采用面部运动强度数据来表征目标人物产生伪装表情时面部的肌肉运动,能够有效地提高对伪装表情进行识别时的准确率。
10.可选地,所述对多个所述面部运动强度数据进行编码,得到每一帧图像对应的强度特征向量,包括:
11.将每一帧图像对应的多个所述面部运动强度数据转化为多个子向量;
12.根据多个子向量生成表征每一帧图像中伪装表情的局部时空特征的所述强度特
征向量。
13.在上述实现方式中,由于目标视频序列中含有多帧图像,能够对每一帧图像中的人脸的面部运动的维度进行编码。通过将每一帧图像中提取的面部运动强度数据进行编码,能够将强度值转换为表示多个维度的面部特征的子向量,并由多个维度的子向量生成表征当前帧中伪装表情的局部时空特征的强度特征向量。从而能够对单帧图像中伪装表情的局部时空特征进行提取,在目标视频序列中的目标人物表情产生变化时对面部的特征进行实时地提取。
14.可选地,所述将多个所述强度特征向量确定的强度特征矩阵输入分类器中进行分类,得到伪装表情识别结果,包括:
15.对多个所述强度特征向量进行调整处理,以得到表征所述目标视频序列中伪装表情的全局时空特征的所述强度特征矩阵;
16.将所述强度特征矩阵输入所述分类器进行分类,得到所述伪装表情识别结果。
17.在上述实现方式中,为了更好地提取各个视频序列的时空特征,可以对属于相同目标视频序列的多个表征单帧图像中伪装表情的局部时空特征的强度特征向量进行调整处理,以得到统一尺寸、能够表征目标视频序列中伪装表情的全局时空特征的强度特征矩阵,并将强度特征矩阵作为对目标视频序列进行伪装表情识别任务的识别数据,输入到多种分类器中进行伪装表情的分类处理,得到对应的伪装表情识别结果。以表征全局时空特征的强度特征矩阵进行识别,能够对目标视频序列进行全面地识别,提高了伪装表情识别结果的准确率。
18.可选地,所述对多个所述强度特征向量进行调整处理,以得到表征所述目标视频序列中伪装表情的全局时空特征的所述强度特征矩阵,包括:
19.确定目标尺寸;
20.根据所述目标尺寸对多个所述强度特征向量进行降采样处理或插值处理,得到多个目标强度特征向量;
21.根据多个所述目标强度特征向量生成所述强度特征矩阵。
22.在上述实现方式中,由于伪装表情数据集中可以包括多个伪装表情视频序列,而多个视频序列之间的长度并不统一,可以通过确定的目标尺寸对属于同一个目标视频序列的强度特征向量进行降采样处理和插值处理,以得到相应的多个目标强度特征向量,再对多个目标特征向量进行编码,生成相应维度、尺寸统一的强度特征矩阵。能够针对多种不同长度的视频序列进行调整处理,以提高每个目标视频序列的强度特征矩阵的时空特征的全面性。
23.可选地,所述将所述强度特征矩阵输入所述分类器进行分类,得到所述伪装表情识别结果,包括:
24.将每个所述强度特征矩阵输入所述分类器;
25.基于所述分类器对所述强度特征矩阵进行识别,得到多种不同类型的伪装表情识别数据;
26.根据多种所述伪装表情数据,确定出所述伪装表情识别结果。
27.在上述实现方式中,分类器能够对输入的每个强度特征矩阵进行多层处理,将强度特征矩阵作为伪装表情识别任务的识别数据进行识别,能够得到多种不同的伪装表情对
应的伪装表情识别数据。通过对多种不同类型的伪装表数据情进行整合、分类等操作,能够确定出对每个强度特征矩阵进行识别的最终的伪装表情识别结果。能够对每种类型的伪装表情进行识别,提高了伪装表情识别结果的完整性。
28.可选地,所述提取目标视频序列中每一帧图像中的多个面部运动强度数据,包括:
29.确定所述目标视频序列中每一帧图像中的多个面部编码点;
30.根据强度需求对所述多个面部编码点进行筛选,以得到多个满足所述强度需求的目标编码点;
31.提取多个所述目标编码点的多个所述面部运动强度数据。
32.在上述实现方式中,对目标人物的面部强度特征进行提取时,由于每一帧图像中的目标人物的面部具有多个面部编码点,为了提高提取的面部强度特征的有效性,可以根据强度需求对多个面部编码点进行筛选,以筛选出能够表示人脸面部变化强度较大的多个点作为目标编码点,能够对目标编码点中的面部强度特征进行提取,得到多个面部运动强度数据,提高了面部运动强度数据的有效性。
33.可选地,所述确定所述目标视频序列中每一帧图像中的多个面部编码点,包括:
34.确定每一帧图像中人脸的基准点;
35.对多个所述基准点进行面部对齐,以确定出所述人脸的关键区域;
36.从所述关键区域中确定出多个所述面部编码点。
37.在上述实现方式中,在对图像中的目标人物的人脸进行检测时,为了消除图像噪声和头部运动对强度检测造成的干扰,可以提取人脸中受表情肌肉运动影响较少的点作为基准点,以进行矩阵变换,对目标人物的人脸进行面部对齐,确定对齐后的关键区域,确定关键区域中的多个面部编码点。能够在检测时对人脸中的位置进行校准,以提高面部编码点的准确性,从而提高面部强度特征提取的准确性。
38.第二方面,本技术还提供了一种表情识别装置,所述装置包括:
39.提取模块,用于提取目标视频序列中每一帧图像中的多个面部运动强度数据,其中,所述目标视频序列为伪装表情数据集中的任意一个伪装表情视频序列;
40.编码模块,用于对多个所述面部运动强度数据进行编码,得到每一帧图像对应的强度特征向量;
41.分类模块,用于将多个所述强度特征向量确定的强度特征矩阵输入分类器中进行分类,得到伪装表情识别结果。
42.在上述实现方式中,通过提取模块对目标视频序列的每一帧图像中能够表示人物做出伪装表情时面部肌肉运动的面部运动强度数据进行获取,能够以面部运动强度数据为基础,从面部运动强度数据的变化趋势中对伪装表情进行识别。通过编码模块对面部运动强度数据进行编码,能够对每一帧图像中的局部时空特征进行提取,以得到对应的强度特征向量。通过分类模块将多个强度特征向量组成的表征目标视频序列中全局时空特征的强度特征矩阵输入多种分类器中,能够以强度特征矩阵作为伪装表情识别任务的识别数据进行识别,得到对应的伪装表情识别结果。
43.第三方面,本技术还提供了一种电子设备,所述电子设备包括存储器和处理器,所述存储器中存储有程序指令,所述处理器读取并运行所述程序指令时,执行上述表情识别方法中任一实现方式中的步骤。
planes),提取伪装表情图像序列全局纹理特征,最后使用svm(support vector machine,支持向量机)对伪装表情进行识别。然而,由于伪装表情在环境、个体差异等因素下的复杂性,现有的识别方法识别时的面部特征相似度较高,无法对伪装表情的多种类型进行区分,且识别时无法对状态接近的混合表情进行识别,导致识别伪装表情的准确率较低。
60.因此,为了解决上述问题,本技术实施例提供了一种表情识别方法,应用于电子设备,电子设备可以为服务器、个人电脑(personal computer,pc)、平板电脑、智能手机、个人数字助理(personal digital assistant,pda)等具有逻辑计算功能的电子设备,能够通过提取面部的特征对伪装表情进行识别。
61.可选地,请参阅图1,图1为本技术实施例提供的一种电子设备的方框示意图。电子设备100可以包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对电子设备100的结构造成限定。例如,电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
62.上述的存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115及显示单元116各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。上述的处理器113用于执行存储器中存储的可执行模块。
63.其中,存储器111可以是,但不限于,随机存取存储器(random access memory,简称ram),只读存储器(read only memory,简称rom),可编程只读存储器(programmable read-only memory,简称prom),可擦除只读存储器(erasable programmable read-only memory,简称eprom),电可擦除只读存储器(electric erasable programmable read-only memory,简称eeprom)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本技术实施例任一实施例揭示的过程定义的电子设备100所执行的方法可以应用于处理器113中,或者由处理器113实现。
64.上述的处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(digital signal processor,简称dsp)、专用集成电路(application specific integrated circuit,简称asic)、现场可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
65.上述的外设接口114将各种输入/输出装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
66.上述的输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
67.上述的显示单元116在电子设备100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式
触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。在本技术实施例中,显示单元116可以显示伪装表情数据集中的多帧图像等。
68.本实施例中的电子设备可以用于执行本技术实施例提供的各个表情识别方法中的各个步骤。下面通过几个实施例详细描述表情识别表方法的实现过程。
69.请参阅图2,图2为本技术实施例提供的一种表情识别方法的流程示意图,该方法可以包括以下步骤。
70.步骤s200,提取目标视频序列中每一帧图像中的多个面部运动强度数据。
71.其中,本技术对伪装表情进行识别时,选用的识别数据为公开数据库中获取的伪装表情数据集,目标视频序列为伪装表情数据集中的任意一个伪装表情视频序列。提取的面部运动强度数据可以为在面部编码系统中,由aus(facial action units,自动面部运动单元检测)的au强度、aus特征或混合特征等能够表示面部运动单元强度的数据,通过对目标人物的面部肌肉的运动进行编码,以得到能够表示目标人物面部活动的面部运动强度数据。
72.可选地,在对目标视频序列中图像的面部运动强度数据进行提取时,可以使用跨数据集的自动aus检测技术进行提取,例如使用了开源的open face中的自动aus检测提取aus和对应的au强度,能够通过一种基于外观(面向梯度直方图)和几何特征(形状参数和地标位置)的实时人脸动作单元强度估计和发生检测系统进行检测,提高了对跨数据集的检测精度。
73.值得说明的是,伪装表情数据集(mfed,masked facial expression database)为系统性研究伪装表情的数据集。伪装表情相比于多种基本表情属于复杂表情,伪装表情数据集中可以包括多个识别任务,例如:进行了有无伪装表情分类任务(2类)、真实情感(experienced emotions)分类任务(6类,简称6e)、被要求的伪装表情(required expressions)分类任务(6类,简称6r)、以及36类伪装表情分类任务(36类)。示例地,请参阅表1,表1为一种使用的伪装表情数据集的类别详情,本技术中使用的伪装表情可以为由22名人员被试的778个伪装表情视频组成,其中女性12名,男性10名,每个伪装表情视频都由分辨率为1280*720、帧率为30帧/秒的相机拍摄,以保证视频的统一性。通过训练被试熟悉并正常演示6种基本表情,并由此生成36种伪装表情类别。在36种表情类别中,每类有19-22个样本,按照6大类被要求伪装表情每类有129-131个样本,样本数量分布均匀,这些数据的采集过程中,所有被试接受了来自中科院心理所研究人员至少两个星期的训练,确保在视频诱发隐藏的6种基本真实表情(情感)时,接到指令的同一时间,能够正确地做出6种被要求的指定伪装表情,数据集一共包含36种表情类型(30种不一致表情类型,6种一致的基本表情类型),因此整个伪装表情数据集的数据能够真实代表现实场景下产生的伪装表情。
74.表1
[0075][0076]
值得说明的是,本技术中提取的面部运动强度数据属于形状特征的次级特征,能够构建面部感知计算模型从而对伪装表情数据集中的混合表情类别进行区分。并且使用次级特征进行识别时,由于次级特征无法回溯到人脸图像,因此能够有效地保护用户的隐私,提高识别时的安全性。
[0077]
步骤s300,对多个所述面部运动强度数据进行编码,得到每一帧图像对应的强度特征向量。
[0078]
其中,可以将aus与特征工程进行结合,采用对获取的每一帧图像的多个面部运动强度数据进行编码的方式,对面部运动强度数据中的特征进行提取,得到能够表示每一帧图像中伪装表情的强度特征向量。
[0079]
值得说明的是,由于强度特征向量只能表示该帧图像中的伪装表情,因此强度特征向量为单帧的局部空间特征的特征向量。
[0080]
步骤s400,将多个所述强度特征向量确定的强度特征矩阵输入分类器中进行分类,得到伪装表情识别结果。
[0081]
其中,由于强度特征向量为单帧的局部空间特征的特征向量,然而在伪装表情中,
由于不同的环境下、不同的个体差异等因素,每个人实际上产生伪装表情的强度和速度是不一致的,为了对目标视频序列中的多种伪装表情进行区分,考虑到单帧图像的局部空间特征在对伪装表情进行36分类任务时,其特征皮尔逊相关系数过大,特征存在相似度过高,机器无法识别表情的分类,因此本技术还可以根据多个强度特征向量确定能够表征目标视频序列中伪装表情的全局时空特征的强度特征矩阵,以强度特征矩阵输入分类器中进行分类。
[0082]
值得说明的是,分类器可以为多种模型,例如cnn(convolutional neural networks,卷积神经网络)、3dcnn、随机森林、神经网络、残差神经网络、transform等,都能够以强度特征矩阵作为伪装表情识别任务时的识别数据进行识别并得到对应的伪装表情识别结果。
[0083]
示例地,分类时能够将整段序列输入得到伪装表情的36个分类,涵盖了使用局部空间特征中确定伪装表情的分类有无与定位的问题,还能够对真实表情a向伪装表情b与真实表情b向伪装表情a演化过程中,存在状态十分接近的“混合表情”进行识别,例如,将同一被试(an-ha,ha-an)、(an-fe,fe-an)、(sa-su,su-sa)等共计15对伪装表情对,分别计算皮尔逊相关系数,累加后除以总被试数,计算平均相关系数,以提高分类时的准确率。
[0084]
示例地,在使用3dcnn对强度特征矩阵进行识别时,可以使用torch库中的自带模型,对光流特征进行提取时,可以使用raft(recurrent all pairs field transforms,递归全对场变换)光流深度网络,raft能够从两个输入图像中提取每个像素的特征,取所有特征向量对的内积来构建一个4d相关量,4d体积的最后两维在多个尺度上合并以构建一组多尺度体积,并通过对相关体积执行查找的循环单元迭代更新字段。以高分辨率维护和更新单个固定流,能够在粗分辨率下对错误的预测进行恢复。
[0085]
在图1所示的实施例中,通过对面部的特征信息进行提取和编码,采用面部运动强度数据来表征目标人物产生伪装表情时面部的肌肉运动,能够有效地提高对伪装表情进行识别时的准确率。
[0086]
可选地,请参阅图3,图3为本技术实施例提供的一种步骤s300的详细流程示意图,步骤s300中还可以包括步骤s310-s320。
[0087]
步骤s310,将每一帧图像对应的多个所述面部运动强度数据转化为多个子向量。
[0088]
其中,能够将面部运动强度数据中表征目标人物面部运动的强度值转化为表示运动特征的多个子向量,例如,在目标视频序列中包括n帧图像时,每一帧图像中的多个面部运动强度数据可以表示为:
[0089][0090]
其中,au
x
分别代表各个面部运动强度数据,子向量的维度与面部运动强度数据的数量对应。
[0091]
步骤s320,根据多个子向量生成表征每一帧图像中伪装表情的局部时空特征的所
述强度特征向量。
[0092]
其中,通过算法将多个维度的子向量生成表征当前帧中伪装表情的局部时空特征的强度特征向量,得到的多个维度强度特征向量可以表示为:
[0093][0094]
在图3所示的实施例中,能够对单帧图像中伪装表情的局部时空特征进行提取,在目标视频序列中的目标人物表情产生变化时对面部的特征进行实时地提取。
[0095]
可选地,请参阅图4,图4为本技术实施例提供的一种步骤s400的详细流程示意图,步骤s400中还可以包括步骤s410-s420。
[0096]
步骤s410,对多个所述强度特征向量进行调整处理,以得到表征所述目标视频序列中伪装表情的全局时空特征的所述强度特征矩阵。
[0097]
其中,由于伪装表情数据集中的多个视频序列中的每个目标人物激活伪装表情的速度和强度不一致,因此多个视频序列的视频长度也不一致。为了更好地提取各个视频序列的时空特征,可以对属于相同目标视频序列的多个表征单帧图像中伪装表情的局部时空特征的强度特征向量进行调整处理,以得到统一尺寸、能够表征目标视频序列中伪装表情的全局时空特征的强度特征矩阵,示例地,强度特征矩阵可以记为:
[0098][0099]
其中,能够根据强度特征向量的数量和帧数确定强度特征矩阵。
[0100]
步骤s420,将所述强度特征矩阵输入所述分类器进行分类,得到所述伪装表情识别结果。
[0101]
其中,将强度特征矩阵作为对目标视频序列进行伪装表情识别任务的识别数据,输入到多种分类器中进行伪装表情的分类处理,得到对应的伪装表情识别结果。
[0102]
在图4所示的实施例中,以表征全局时空特征的强度特征矩阵进行识别,能够对目标视频序列进行全面地识别,提高了伪装表情识别结果的准确率。
[0103]
可选地,请参阅图5,图5为本技术实施例提供的一种步骤s410的详细流程示意图,步骤s410中还可以包括步骤s411-s413。
[0104]
步骤s411,确定目标尺寸。
[0105]
其中,在对不同长度的视频序列的多个强度特征向量进行处理时,可以确定识别时统一的目标尺寸,目标尺寸可以为确定的图像的帧数。
[0106]
步骤s412,根据所述目标尺寸对多个所述强度特征向量进行降采样处理或插值处理,得到多个目标强度特征向量。
[0107]
其中,可以通过确定的目标尺寸对属于同一个目标视频序列的强度特征向量进行降采样处理和插值处理,通过降低强度特征向量或增加强度特征向量的取样频率的方式,
以得到相应的多个目标强度特征向量。
[0108]
步骤s413,根据多个所述目标强度特征向量生成所述强度特征矩阵。
[0109]
其中,对多个目标特征向量进行编码处理,能够生成相应维度、尺寸统一的强度特征矩阵,能够对多个长度不同视频序列进行统一地识别。
[0110]
在图5所示的实施例中,能够针对多种不同长度的视频序列进行调整处理,以提高每个目标视频序列的强度特征矩阵的时空特征的全面性。
[0111]
可选地,请参阅图6,图6为本技术实施例提供的一种步骤s420的详细流程示意图,步骤s420中还可以包括步骤s421-s423。
[0112]
步骤s421,将每个所述强度特征矩阵输入所述分类器。
[0113]
其中,将强度特征矩阵作为伪装表情识别任务的识别数据,输入分类器中进行识别。
[0114]
步骤s422,基于所述分类器对所述强度特征矩阵进行识别,得到多种不同类型的伪装表情识别数据。
[0115]
其中,由于伪装表情分为多种不同的类型,分类器在对强度特征矩阵进行分类时,能够得到多种不同的伪装表情对应的伪装表情识别数据。
[0116]
可选地,识别时可以采用不同的方式进行识别,例如:在一些情况中,认为包含更多真实情感的第一帧图像(onset frame),这是已知第一帧是被试接到指令已经开始被要求的伪装表情,但是仍然是目标视频序列中混合了最多的真实表情的一帧图像。随后真实情感逐渐衰弱,直到被要求的伪装表情占据主导地位,为了精确地确定伪装表情是否已经发生,可以使用初始帧(onset frame)到顶帧(apex frame)和初始帧到结束帧(offset frame)两种情况进行识别。由于au强度经过一个较大的变化后会趋于稳定,因此得到的特征矩阵也是伪装表情强度达到最大后趋于稳定,将最大的变化帧标注为apex frame,图像帧的变化与检测出来的au强度稳定的趋势是一致的,使用初始帧和顶帧都能够提取时空特征以反映伪装表情的运动过程,从而对多种不同的伪装表情数据进行获取。
[0117]
步骤s423,根据多种所述伪装表情数据,确定出所述伪装表情识别结果。
[0118]
其中,可以对多种不同类型的伪装表情数据进行整合、分类等操作,确定出对每个强度特征矩阵进行识别的最终的伪装表情识别结果。示例地,伪装表情识别结果可以为多种类型的伪装表情出现的概率分布图、表格等多种形式的文件。
[0119]
在图6所示的实施例中,能够对每种类型的伪装表情进行识别,提高了伪装表情识别结果的完整性。
[0120]
可选地,请参阅图7,图7为本技术实施例提供的一种步骤s200的详细流程示意图,步骤s200中还可以包括步骤s210-s230。
[0121]
步骤s210,确定所述目标视频序列中每一帧图像中的多个面部编码点。
[0122]
其中,在根据面部动作编码系统对每一帧图像中的目标人物的面部动作进行编码时,能够得到多个面部编码点。
[0123]
步骤s220,根据强度需求对所述多个面部编码点进行筛选,以得到多个满足所述强度需求的目标编码点。
[0124]
其中,为了提高提取的面部强度特征的有效性,可以根据强度需求对多个面部编码点进行筛选,以筛选出表示人脸面部变化强度较大的多个点作为目标编码点,减去一些
表示人脸面部变化强度较小的多个点,能够有效地减少编码点的计算量,提高编码速度和提取效率。
[0125]
可选地,目标编码点的数量可以根据需求和实际情况进行选择和调整,本技术的实施例中可以采用17个点作为目标编码点。
[0126]
步骤s230,提取多个所述目标编码点的多个所述面部运动强度数据。
[0127]
其中,可以通过多种方式,提取得到面部编码系统中多个目标编码点的面部运动强度数据。
[0128]
在图7所示的实施例中,通过筛选,提高了面部运动强度数据的有效性。
[0129]
可选地,请参阅图8,图8为本技术实施例提供的一种步骤s210的详细流程示意图,步骤s210中还可以包括步骤s211-s213。
[0130]
步骤s211,确定每一帧图像中人脸的基准点。
[0131]
其中,对图像中的目标人物的人脸进行检测时,为了消除图像噪声和头部运动对强度检测造成的干扰,可以在面部编码系统中提取人脸中受表情肌肉运动影响较少的点作为基准点。
[0132]
示例地,可以使用drfm(discriminative response map fitting,判别相应图拟合)对多个基准点进行提取,多个基准点可以为受表情肌肉运动影响较少的内眼、鼻脊柱等多个点。
[0133]
步骤s212,对多个所述基准点进行面部对齐,以确定出所述人脸的关键区域。
[0134]
其中,通过对多个基准点计算变换矩阵,能够对目标人物的人脸进行面部对齐,确定对齐后人脸中进行识别的关键区域。
[0135]
步骤s213,从所述关键区域中确定出多个所述面部编码点。
[0136]
在图8所示的实施例中,能够在检测时对人脸中的位置进行校准,以提高面部编码点的准确性,从而提高面部强度特征提取的准确性。
[0137]
请参阅图9,图9为本技术实施例提供的一种表情识别装置的结构示意图,表情识别装置500中可以包括:
[0138]
提取模块510,用于提取目标视频序列中每一帧图像中的多个面部运动强度数据,其中,所述目标视频序列为伪装表情数据集中的任意一个伪装表情视频序列;
[0139]
编码模块520,用于对多个所述面部运动强度数据进行编码,得到每一帧图像对应的强度特征向量;
[0140]
分类模块530,用于将多个所述强度特征向量确定的强度特征矩阵输入分类器中进行分类,得到伪装表情识别结果。
[0141]
在一可选的实施方式中,编码模块520中还可以包括转化子模块和生成子模块;
[0142]
转化子模块,用于将每一帧图像对应的多个所述面部运动强度数据转化为多个子向量;
[0143]
生成子模块,用于根据多个子向量生成表征每一帧图像中伪装表情的局部时空特征的所述强度特征向量。
[0144]
在一可选的实施方式中,分类模块530中还可以包括调整子模块和分类子模块;
[0145]
调整子模块,用于对多个所述强度特征向量进行调整处理,以得到表征所述目标视频序列中伪装表情的全局时空特征的所述强度特征矩阵;
[0146]
分类子模块,用于将所述强度特征矩阵输入所述分类器进行分类,得到所述伪装表情识别结果。
[0147]
在一可选的实施方式中,调整子模块中还可以包括确定单元、处理单元和生成单元;
[0148]
确定单元,用于确定目标尺寸;
[0149]
处理单元,用于根据所述目标尺寸对多个所述强度特征向量进行降采样处理或插值处理,得到多个目标强度特征向量;
[0150]
生成单元,用于根据多个所述目标强度特征向量生成所述强度特征矩阵。
[0151]
在一可选的实施方式中,分类子模块还可以包括输入单元、识别单元和确定单元;
[0152]
输入单元,用于将每个所述强度特征矩阵输入所述分类器;
[0153]
识别单元,用于基于所述分类器对所述强度特征矩阵进行识别,得到多种不同类型的伪装表情识别数据;
[0154]
确定单元,用于根据多种所述伪装表情数据,确定出所述伪装表情识别结果。
[0155]
在一可选的实施方式中,提取模块510中还可以包括编码点确定子模块、筛选子模块和提取子模块;
[0156]
编码点确定子模块,用于确定所述目标视频序列中每一帧图像中的多个面部编码点;
[0157]
筛选子模块,用于根据强度需求对所述多个面部编码点进行筛选,以得到多个满足所述强度需求的目标编码点;
[0158]
提取子模块,用于提取多个所述目标编码点的多个所述面部运动强度数据。
[0159]
在一可选的实施方式中,编码点确定子模块还可以包括第一确定单元、对齐单元和第二确定单元;
[0160]
第一确定单元,用于确定每一帧图像中人脸的基准点;
[0161]
对齐单元,用于对多个所述基准点进行面部对齐,以确定出所述人脸的关键区域;
[0162]
第二确定单元,用于从所述关键区域中确定出多个所述面部编码点。
[0163]
由于本技术实施例中的表情识别装置500解决问题的原理与前述的表情识别方法的实施例相似,因此本实施例中的表情识别装置500的实施可以参见上述表情识别方法的实施例中的描述,重复之处不再赘述。
[0164]
本技术实施例还提供了一种计算机可读取存储介质,所述可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本实施例提供的表情识别方法中任一项所述方法中的步骤。
[0165]
综上所述,本技术实施例提供了一种表情识别方法、装置、电子设备及计算机可读取存储介质,采用面部运动强度来表征目标人物产生伪装表情时面部的肌肉运动,通过对人物的面部运动强度的特征信息进行提取和编码,通过分类器对生成的特征矩阵进行识别,有效地提高了对伪装表情进行识别时的准确率。
[0166]
在本技术所提供的几个实施例中,应该理解到,所揭露的设备,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的框图显示了根据本技术的多个实施例的设备的可能实现的体系架构、功能和操作。在这点上,框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或
多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上基本可以并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图中的每个方框、以及框图的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0167]
另外,在本技术各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
[0168]
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。因此本实施例还提供了一种可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行区块数据存储方法中任一项所述方法中的步骤。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,ran dom access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0169]
以上所述仅为本技术的实施例而已,并不用于限制本技术的保护范围,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
[0170]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。
[0171]
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1