头戴式可穿戴设备及其信息处理方法、装置的制造方法_4

文档序号:9432000阅读:来源:国知局
时间点的肢体图像进行比较;
[0140]4032、若当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
[0141]其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
[0142]404、智能眼镜的控制器对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果。
[0143]举例来说,步骤404可包括如下子步骤:
[0144]4041、智能眼镜的控制器采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果。
[0145]也就是说,通过非接触时脉搏血氧定量法,获得心率变化数值,进而获得谈话对象的心率变化曲线,当高于某一限定阈值可认为,谈话对象说话的可信度低。通常,普通人在说谎时,心率会发生较大变化。
[0146]4042、智能眼镜的控制器获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
[0147]4043、智能眼镜的控制器将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
[0148]其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
[0149]通常,大多数人的在说谎话时,眼球的运动方向时右上方;人们在试图记起确实发生的事情时,眼球的运动方向时左上方,为此可根据面部图像中瞳孔区域眼球的运动方向确定谈话对象是否在说谎。
[0150]此外,当人遇到令人厌恶的刺激或惹人生气话题时,瞳孔会不由自主地收缩;相反,当遇到令人心情愉快话题时,瞳孔会自动放大,当人感到恐慌、愉悦、喜爱、兴奋或激动时,瞳孔会放大到平常的4倍及以上。
[0151]405、智能眼镜的控制器根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果。
[0152]举例来说,智能眼镜的控制器可根据所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果。该处的正向结果为使用者想要的结果可理解为正向结果。
[0153]也就是说,若选择指令为兴趣分析指令,则心率分析结果为感兴趣,瞳孔分析结果为感兴趣,行为分析结果为不感兴趣,则输出结果为感兴趣;
[0154]或者,若选择指令为可信度分析指令,则行为分析结果为可信度低,心率分析结果为可信度低,瞳孔分析结果为可信度高,则输出结果为可信度低。
[0155]在另一种可能的实现方式中,智能眼镜的控制器可根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果。
[0156]在第三种可能的实现方式中,智能眼镜的控制器可获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
[0157]406、智能眼镜的输出模块将所述谈话内容输出结果输出至智能眼镜的使用者。
[0158]本实施例的智能眼镜还可通过获取谈话对象的图像信息,确定谈话对象的心率变化、眼球动作、瞳孔变化等的分析结果,进而获得该谈话对象的谈话可信度或谈话兴趣度,操作方便,成本低,可较好的提高用户体验。
[0159]为更好的说明本发明的实施例,以下对步骤4041中的智能眼镜的控制器采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果,详细说明如下。
[0160]目前,血氧饱和度摄像技术的非接触式脉搏血氧定量分析法是利用普通的光学摄像头可以检测到人体的心率,例如拍摄一段包括人的面部图像的视频,从视频的每一图像中确定相同的分析区域(如图6所示的虚线框);
[0161]针对视频中每一图像的分析区域,可提取G通道和B通道内各像素的平均值;
[0162]根据视频中所有图像的分析区域中G通道像素平均值随时间变化的曲线,以及B通道像素平均值随时间变化的曲线,获得人体的心率变化曲线。
[0163]本实施例中的头戴式可穿戴设备可应用各种场景,如测谎场景,相亲场景、问答场景等。
[0164]在本发明实施例的第三方面,本发明实施例还提供一种头戴式可穿戴设备的信息处理装置,如图7所示,本实施例的头戴式可穿戴设备的信息处理装置包括:获取单元71、处理单元72、分析单元73、输出单元74 ;
[0165]其中,获取单元71用于获取谈话对象的图像信息,所述图像信息包括:谈话对象的面部图像和肢体图像;
[0166]处理单元72用于对所述肢体图像进行分析,获取行为分析结果;以及对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果;
[0167]分析单元73用于根据所述行为分析结果、心率分析结果和瞳孔分析结果,确定所述谈话对象的谈话内容输出结果;
[0168]输出单元74用于将所述谈话内容输出结果输出至所述头戴式可穿戴设备的使用者。
[0169]举例来说,前述的处理单元72用于对所述肢体图像进行分析,获取行为分析结果,可具体说明如下:
[0170]将当前时间点的肢体图像与第一时间点的肢体图像进行比较;
[0171]若所述当前时间点的肢体图像相对于所述第一时间点的肢体图像接近所述使用者,则确定所述谈话者对当前谈话内容感兴趣,获得行为分析结果;
[0172]其中,所述第一时间点为与当前时间点间隔预设时长的时间点。
[0173]此外,前述的处理单元72用于对所述面部图像进行分析,获取心率分析结果和瞳孔分析结果,可具体说明如下:
[0174]采用非接触式脉搏血氧定量分析法对所述面部图像进行分析,获取心率分析结果;
[0175]获取当前时间点的面部图像中的瞳孔区域,以及第二时间点的面部图像中的瞳孔区域;
[0176]将当前时间点的瞳孔区域与第二时间点的区域进行比较,获得所述瞳孔分析结果;
[0177]其中,所述第二时间点为与当前时间点间隔预设时间段的时间点。
[0178]进一步地,前述的分析单元73可具体用于
[0179]所述行为分析结果、心率分析结果和瞳孔分析结果中有至少两个结果为正向结果,则确定所述谈话对象的谈话内容输出结果为正向结果;
[0180]或者,根据预先确定的各分析结果的权重系数,将各分析结果与各自的权重系数相乘,再将各相乘的结果相加,获得所述谈话对象的谈话内容输出结果;
[0181]或者,获取所有分析结果的平均值,将所述平均值作为所述谈话对象的谈话内容输出结果。
[0182]另外,在一种可选的实现场景中,前述的头戴式可穿戴设备的信息处理装置还可包括下述的图中未示出的接收单元;
[0183]该接收单元用于在处理单元72对肢体图像和面部图像进行分析之前,接收用户的选择指令;
[0184]相应地,处理单元72的行为分析结果为对所述谈话内容是否感兴趣的行为分析结果,所述心率分析结果为对所述谈话内容是否感兴趣的心率分析结果,所述瞳孔分析结果为,对所述谈话内容是否感兴趣的瞳孔分析结果;
[0185]在第二种可选的实现场景中,该接收单元用于在处理单元72对肢体图像和面部图像进行分析之前,接收用户的可信度分析指令,
[0186]相应地,处理单元72的行为分析结果为该谈话内容的可信率的行为分析结果;所述心率分析结果为该谈话内容的可信率的心率分析结果,所述瞳孔分析结果为该谈话内容的可信率的瞳孔分析结果。
[0187]在具体实现过程中,本实施例的头戴式可穿戴设备的信息处理装置可通过计算机软件方式实现,可集成在头戴式可穿戴设备的某一实体结构中,进而实现上述过程。当然,结合前述图1和图2所示的头戴式可穿戴设备的结构,本实施例的信息处理装置也可通过实体电路结构实现,本实施例不对其进行限定,根据具体情况进行处理。
[0188]本领域普通技术人员可以理解:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实
当前第4页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1