一种AI情绪可视化识别方法与流程

文档序号:37359935发布日期:2024-03-22 10:13阅读:15来源:国知局

本发明涉及智能交互,具体为一种ai情绪可视化识别方法。


背景技术:

1、情绪是综合了人的感觉、思想和行为的一种状态,在人与人的交流中发挥着重要作用,情绪是一种综合了人的感觉、思想和行为的状态,它包括人对外界或自身刺激的心理反应,包括伴随这种心理反应的生理反应,在人们的日常工作和生活中,情绪的作用无处不在,情绪识别原本是指个体对于他人情绪的识别,现多指ai通过获取个体的生理或非生理信号对个体的情绪状态进行自动辨别,是情感计算的一个重要组成部分,目前在情感计算领域己出现了诸多情感模型,但大多仅适用于离散状态下的情感计算,对于人与服务机器人的自然交互过程中,认知情感状态的连续时空特性仍无法满足。

2、经检索,申请号为cn201710122249.3的中国专利,一种情绪识别装置,包括表情认知模块、微表情认知模块和加权融合模块,所述表情认知模块用于将表情情绪映射到连续的情感空间进行识别,所述微表情认知模块用于对细微的情绪变化进行识别,所述加权融合模块用于确定情绪状态,能够根据表情与情绪间的对应关系来识别不同的情绪,对情绪进行准确识别;但是其不足在于:情绪识别方式较为单一,无法保证情绪识别的可靠性,人们可以通过伪装面部表情掩饰自己的真实情绪,而这种伪装往往不易被发现,且对于患有某些特殊疾病的人来说,其面部表情变化不大,难以察觉。


技术实现思路

1、(一)解决的技术问题

2、针对现有技术的不足,本发明提供了一种ai情绪可视化识别方法,具备可从动作和语音两方面进行情绪识别,并进行相互验证,能够有效排除干扰项,识别出准确度高的真实情绪,有助于使人与机器的交互更为友好和自然等优点,解决了现有技术中采用单一情绪识别防方式无法保障情绪识别的可靠性的问题。

3、(二)技术方案

4、为实现上述提高情绪识别可靠性的目的,本发明提供如下技术方案:一种ai情绪可视化识别方法,包括以下步骤:

5、1)首先,进行图像和语音数据采集,生成图像数据模型和语音数据模型;

6、2)图像信息处理,对图像数据模型进行特征提取处理,获取其中的表情特征和动作特征;

7、3)图像情绪识别,基于表情特征确立所述图像数据中映射的情绪类型,并基于所述动作特征确定所述图像数据中对应的情绪强度;

8、4)语音信息初步处理,监测语音数据中的音调变化情况,并将所述语音数据转换为文本内容;

9、5)语音信息精细处理,根据音调变化情况获取音调变化跨度异常的强度限定词,提取所述文本内容中的情绪敏感词;

10、6)语音情绪识别,基于强度限定词和情绪敏感词确立所述语音数据中映射的情绪类型和对应的情绪强度;

11、7)融合处理,对比同一时间段中图像数据和语音数据映射的情绪类型和情绪强度,并对其进行加权融合处理,以确定最终的情绪类别识别结果,得出情绪分析报告。

12、优选的,在步骤1)中,利用图像采集设备获取图像数据,利用语音采集设备获取音频数据。

13、优选的,在步骤2)中,将图像数据模型分为表情特征模块和动作特征模块,其中表情提取模块包括面部肌肉动作认知和微表情认知,而动作提取模块包括肢体动作认知和生理信号认知,且生理信号认知包括面色、眼泪、汗水等特征。

14、优选的,在步骤3)中,结合表情提取模块和动作提取模块中映射的情绪特征,并进行相互验证,确定某一时间段中图像数据所反映的情绪类型和情绪强度。

15、优选的,在步骤5)中,根据整段语音数据中音调的平均值确定基准,提取并记录偏离所述基准的音频段,并将提取的内容转换为文本内容,标记为强度限定词。

16、优选的,在步骤6)中,结合强度限定词和情绪敏感词反映的情绪特征,并进行相互验证,确定某一时间段中语音数据所反映的情绪类型和情绪强度。

17、(三)有益效果

18、与现有技术相比,本发明提供了一种ai情绪可视化识别方法,具备以下

19、有益效果:

20、该ai情绪可视化识别方法,进行数据采集后,首先,将图像数据分为表情特征模块和动作特征模块,提取表情特征模块中的面部肌肉动作认知和微表情认知,同时提取动作特征模块中的肢体动作认知和生理信号认知,并分别记录两种特征模块得出的结果,进行相互验证,从而排除由于人为心理变化产生干扰因素,提高图像情绪识别的准确性;之后,对语音数据中的音调变化进行检测,并将音调变化跨度异常的部分与语音数据中出现情绪敏感词进行相互映照,提高语音情绪识别可靠性;最后,将图像情绪识别的结果和语音情绪识别的结果进行加权融合处理,以确定最终的情绪识别结果,得出情绪分析报告,此种情绪识别方式,可在不接触用户对其造成心理压迫的情况下,有效排除干扰项,识别出准确度高的真实情绪。



技术特征:

1.一种ai情绪可视化识别方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种ai情绪可视化识别方法,其特征在于,在步骤1)中,利用图像采集设备获取图像数据,利用语音采集设备获取音频数据。

3.根据权利要求1所述的一种ai情绪可视化识别方法,其特征在于,在步骤2)中,将图像数据模型分为表情特征模块和动作特征模块,其中表情提取模块包括面部肌肉动作认知和微表情认知,而动作提取模块包括肢体动作认知和生理信号认知,且生理信号认知包括面色、眼泪、汗水等特征。

4.根据权利要求3所述的一种ai情绪可视化识别方法,其特征在于,在步骤3)中,结合表情提取模块和动作提取模块中映射的情绪特征,并进行相互验证,确定某一时间段中图像数据所反映的情绪类型和情绪强度。

5.根据权利要求1所述的一种ai情绪可视化识别方法,其特征在于,在步骤5)中,根据整段语音数据中音调的平均值确定基准,提取并记录偏离所述基准的音频段,并将提取的内容转换为文本内容,标记为强度限定词。

6.根据权利要求1所述的一种ai情绪可视化识别方法,其特征在于,在步骤6)中,结合强度限定词和情绪敏感词反映的情绪特征,并进行相互验证,确定某一时间段中语音数据所反映的情绪类型和情绪强度。


技术总结
本发明涉及智能交互技术领域,且公开了一种AI情绪可视化识别方法,包括以下步骤:1)首先,进行图像和语音数据采集,生成图像数据模型和语音数据模型;2)图像信息处理,对图像数据模型进行特征提取处理,获取其中的表情特征和动作特征;3)图像情绪识别,基于表情特征确立所述图像数据中映射的情绪类型,并基于所述动作特征确定所述图像数据中对应的情绪强度。该AI情绪可视化识别方法,可对图像和音频进行分析处理,得出情绪分析结果,并将图像情绪识别的结果和语音情绪识别的结果进行加权融合处理,达到相互印证的目的,以确定处最终的情绪识别结果,得出精确的情绪分析报告,此种方式能够有效排除干扰项,识别出准确度高的真实情绪。

技术研发人员:徐伟
受保护的技术使用者:江苏芯灵智能科技有限公司
技术研发日:
技术公布日:2024/3/21
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1