用于人机交互的方法、电子设备和计算机可读存储介质与流程

文档序号:21082196发布日期:2020-06-12 16:37阅读:188来源:国知局
用于人机交互的方法、电子设备和计算机可读存储介质与流程

本公开涉及人机交互,更具体地,涉及用于人机交互的方法、电子设备和计算机可读存储介质。



背景技术:

传统的人机交互的方案例如是:交互设备响应于交互对象(例如用户)经由鼠标等输入手段所输入的请求,确定匹配会话回复,以便与交互对象进行交互。

传统的人机交互的方案一般仅针对交互对象的有限维度的输入请求进行响应,例如仅仅基于交互对象的触摸输入、语音输入或者文字输入来进行响应,无法综合交互对象的多模态输入而动态地进行实时匹配响应,也无法针对交互对象在不同时段的情感特点进行匹配的响应,因此难以提高交互内容的准确性和用户体验。



技术实现要素:

本公开提供一种用于人机交互的方法和装置,能够综合交互对象的多模态输入,针对交互对象在不同时段的情感特点匹配合适的会话回复。

根据本公开的第一方面,提供了一种人机交互的方法。该方法包括:响应于检测到交互对象的输入请求,获取关于交互对象的多种类型的数据,多种类型的数据包括图像数据、语音数据、文本数据、行为数据和数值类数据中的至少两种类型的数据;提取多种类型的数据的特征;基于多种类型中的同一类型的数据的特征之间的相关性以及多种类型中的不同类型的数据的特征之间的相关性,确定注意力权重;基于注意力权重,融合多种类型的数据的特征,以确定交互对象的情感数据;以及基于输入请求和情感数据,生成针对输入请求的会话输出。

根据本发明的第二方面,还提供一种用于人机交互的电子设备。该设备包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至存储器并且被配置为执行一个或多个程序使系统执行根据本公开的第一方面的方法。

根据本公开的第三方面,提供了一种非瞬态计算机可读存储介质。该非瞬态计算机可读存储介质上存储有机器可执行指令,机器可执行指令在被执行时使机器执行根据本公开的第一方面的方法。

提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或主要特征,也无意限制本公开的范围。

附图说明

通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。

图1示出了根据本公开的实施例的用于人机交互的系统100的架构图;

图2示出了根据本公开的实施例的用于人机交互的方法200的流程图;

图3示出了根据本公开的实施例的会话模块300的示意图;

图4示出了根据本公开的实施例的用于生成针对输入请求的会话输出的方法400的流程图;

图5示出了根据本公开的实施例的用于确定会话引擎的方法500的流程图;

图6示出了根据本公开的实施例的用于构建分类模型的textcnn结构的示意图;

图7示出了根据本公开的实施例的用于识别情感的方法700的流程图;

图8示出了根据本公开的实施例的用于确定注意力权重的方法的示意图;以及

图9示意性示出了适于用来实现本公开实施例的电子设备900的框图。

在各个附图中,相同或对应的标号表示相同或对应的部分。

具体实施方式

下面将参照附图更详细地描述本公开的优选实施例。虽然附图中下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。

在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。

如上文所描述的,在传统的人机交互的方案中,仅针对交互对象的有限维度的输入请求来确定用于响应的会话回复,无法综合交互对象的多模态输入进行实时动态的响应,也无法针对交互对象在不同时段的情感特点进行匹配的响应,因此难以提高用户体验。

为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个,本公开的示例实施例提出了一种用于人机交互的方案。在该方案中,响应于检测到交互对象的输入请求,获取关于交互对象的多种类型的数据,多种类型的数据包括图像数据、语音数据、文本数据、行为数据和数值类数据中的至少两种类型的数据;提取多种类型的数据的特征;基于多种类型中的同一类型的数据的特征之间的相关性以及多种类型中的不同类型的数据的特征之间的相关性,确定注意力权重;基于注意力权重,融合多种类型的数据的特征,以确定交互对象的情感数据;以及基于输入请求和情感数据,生成针对输入请求的会话输出。

在上述方案中,通过提取交互对象的多种类型的数据的特征,以及基于同一类型的数据特征之间的相关性以及不同类型的数据特征之间的相关性来确定注意力权重;并且基于融合多种类型的数据的特征的情感数据生成针对输入请求的会话输出,本公开能够实现综合交互对象的多模态输入数据进行实时动态的响应,以及针对交互对象在不同时段的情感特点进行匹配的响应。

图1示出了根据本公开的实施例的用于识别对象的系统100的架构图。如图1所示,系统100包括人机交互设备110、业务系统130、交互对象122的用户终端120(例如是移动设备)、第三方设备140和142。人机交互设备110、业务系统130、和用户终端120、第三方设备140和142例如通过网络160、基站150进行数据交互。

人机交互设备110用于与交互对象122(例如用户)进行人机交互,例如针对交互对象122的输入请求回复对应的会话输出。在一些实施例中,人机交互设备110可以通过显示器112所呈现的虚拟形象114与交互对象122直接(面对面)或者经由移动设备120来进行人机交互。人机交互设备110例如而不限于是计算机、服务器。人机交互设备110可以具有一个或多个处理单元,包括诸如gpu、fpga和asic等的专用处理单元以及诸如cpu的通用处理单元。另外,在人机交互设备110上也可以运行着一个或多个虚拟机。

在一些实施例中,人机交互设备110例如至少包括输入采集装置、输出装置、控制单元。在一些实施例中,人机交互设备110如果接收到交互对象122的输入请求,可以实时采集关于交互对象122的多模态数据(即多种类型的数据,例如至少包括:图像数据、语音数据、文本数据、行为数据和数值类数据)。人机交互设备110还可以针对所采集的多模态数据进行清洗,以便进行异常值处理、空缺值填充等,以及针对多模态数据进行处理,以形成不同类型的数据的特征向量。人机交互设备110还可以基于注意力权重,经由融合不同类型的数据的特征向量,生成关于交互对象122的输入请求的情感数据。人机交互设备110还可以基于交互对象122的输入请求和所生成的情感数据,生成针对交互对象122的输入请求的会话输出。该会话输出可以是文本性输出、语音输出中的至少一种。在一些实施例中,人机交互设备110还可以实时获取关于交互对象122的多维数据,以便进行实时的用户画像分析,进而确定用户的属性。

人机交互设备110的输入采集装置用于直接采集或经由网络160获取交互对象122的输入请求或数据。在一些实施例中,输入采集装置可以获取交互对象的语音、视频图像、文字、触控、位置等信息。在一些实施例中,输入采集装置例如包括用于获取交互对象122的视频图像的摄像装置、用于拾取交互对象122的语音输入的声音拾取器、用于接收交互对象122触控输入的鼠标、触敏显示器等。输入采集装置还可以包括接收用户文字输入的键盘或按键等。在一些实施例中,输入采集装置可以经由网络160获取交互对象122经由远程用户终端输入的输入数据。通过采用上述手段,人机交互设备110能够具备多模态感知能力。

人机交互设备110的控制单元用于基于输入采集装置所获取的输入,生成交互数据(例如会话输出)。该交互数据至少包括语音数据、图像数据、文字数据中的一种或多种。在一些实施例中,该交互数据还包括:调度数据、业务展示数据。其中,调度数据例如用于调度业务系统或第三方api。语音数据和图像数据用于发送至音视频渲染单元,以便进行音视频流的实时渲染(例如实现语音输出与虚拟形象的动作和面部表情的图像输出的协同)。业务展示数据例如用于发送至输出装置以便展示给交互对象、或者回应交互对象。在一些实施例中,控制单元还用于基于输入数据确定交互对象是否通过验证;只有确定交互对象通过验证之后,才基于输入生成调度数据、语音数据和图像数据和业务展示数据。

人机交互设备110的输出装置用于生成呈现给交互对象的交互输出,例如会话输出。在一些实施例中,交互输出包括:用于显示的文字、图标、图表、表单、背景、特效、交互式控件、时间、短信、二维码中的至少一项。在一些实施例中,输出装置可以是在显示器112的上输出文字、图表、图标、以及带有背景的虚拟形象114,以及经由扬声器输出语音、合成音乐等。

业务系统130用于获取人机交互设备110所发送的调度数据,例如交互需求,以及基于调度数据进行处理,以生成业务反馈信息,并将其反馈给人机交互设备110。人机交互设备110也可以从业务系统130获得关于交互对象122的历史业务数据,以用于确定用户的属性(例如进行用户画像分析)。业务系统130例如而不限于是一个或多个计算机、服务器。

第三方系统140和142例如用于经由网络160与人机交互设备110进行数据交互。在一些实施例中,第三方系统140和142例如而不限于是提供互联网应用服务的服务器,例如,人机交互设备110可以向第三方系统140发送调度数据。

用户终端120用于经由网络与人机交互设备110进行数据交互。用户终端120例如而不限于是移动设备(如手机、穿戴设备、pda等)、计算机、服务器等。在一些实施例中,用户终端120的摄像头和音频拾取器可以获取交互对象122的视频图像和声音,并将所获取的视频图像和声音经由网络160发送给人机交互设备110,当人机交互设备110确认交互对象122通过验证后,基于所获取的视频图像和语音输入驱动虚拟形象114而与交互对象122进行交互。

图2示出了根据本公开的实施例的用于人机交互的方法200的流程图。在图2中,各个动作例如由人机交互设备110执行。方法200还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框202处,人机交互设备110确定是否检测到交互对象122的输入请求。

在框204处,如果人机交互设备110确定检测到交互对象122的输入请求,获取关于交互对象122的多种类型的数据,多种类型的数据包括图像数据、语音数据、文本数据、行为数据和数值类数据中的至少两种类型的数据。在一些实施例中,人机交互设备110所获取的多种类型的数据既包括经由输入采集装置所采集的实时数据(该实时数据例如而不限于包括:用户通过键盘的文字输入、摄像头捕捉的图像和视频数据,麦克风阵列获取的语音数据),还可以包括例如所获取的内部数据(内部数据例如是经由与人机交互设备110进行数据交互的业务系统130,获取的用户结构化数据,以及用户在系统中留下的用户行为数据等)或者外部数据(外部数据例如经由网络160所获取),这些内部数据和/或外部数据例如包括结构化数据、文本数据和行为数据等。在一些实施例中,人机交互设备110可以进一步地对所获取的多种类型的数据进行清洗,以便进行异常值处理、或者空缺值填充等。通过实时获取多种类型的数据(即多模态的数据收集),本公开的人机交互设备110或者在交互过程中能够不断获取用户实时信息,便于针对交互对象122在不同时段的情感特点进行匹配的响应。

在框206处,人机交互设备110提取多种类型的数据的特征。

关于提取多种类型的数据的特征的方式可以包括多种。在一些实施例中,人机交互设备110提取多种类型的数据的特征的方法包括:人机交互设备110针对数值类数据进行归一化处理;以及对图像数据、语音数据、文本数据、行为数据分别进行向量化处理。例如,人机交互设备110可以针对数值类数据进行归一化处理;以及使用文本表示模型,针对文本数据进行数值化;使用深度学习模型,对语音数据进行向量化;以及使用时间序列等模型,对用户行为数据进行向量化。通过采用上述手段,本公开可以将用户的多模态数据进行特征表示和特征提取。在一些实施例中,人机交互设备110可以针对维度较高的特征,通过使用pca、lda等方法降低特征维度,以便提高后续算法的处理效率。

在一些实施例中,人机交互设备110可以基于经由处理与整合后的多种类型的数据的特征进行用户画像分析,例如,确定交互对象122的实时属性。

在框208处,人机交互设备110基于多种类型中的同一类型的数据的特征之间的相关性以及多种类型中的不同类型的数据的特征之间的相关性,确定注意力权重。

经研究发现,多模态特征通常是经由不同的输入设备所采集的不同信息流。传统融合多模态特征的方案例如是:直接将多模态信息转换为彼此各自的空间表示,再进行拼接。应该理解,上述针对各自的空间表示的拼接并没有关注多模态特征的内在联系。经研究发现,通过采用模态内部的注意力(attention)建模和模态间的注意力(attention)建模,使得模块堆叠多次,然后进行拼接,再进行分类,所计算的特征能够获得更好效果。在一些实施例中,人机交互设备110可以基于多种类型中的同一类型的数据的特征之间的相关性,生成第一注意力权重;以及基于多种类型中的不同类型的数据的特征之间的相关性,生成第二注意力权重。在采用上述手段,通过经由多个模态内部以及多个模态之间的相关性计算,可以得到多模态的自注意力(模态内注意力)权重以及模态间的注意力权重(模态间的注意力机制能够计算不同模态序列之间的相关关系)。下文将结合图8说明确定注意力权重的方法,在此,不再赘述。

在框210处,人机交互设备110基于注意力权重,融合多种类型的数据的特征,以确定交互对象的情感数据。基于上述自注意力权重以及模态间的注意力权重,能够获得更好的融合特征,以及取得更好的分类效果。上述情感数据例如是分类类别。

关于融合方式,在一些实施例中,例如通过拼接、求和、平均等操作融合多种类型的数据的特征,进而生成当前用户的情感特征集合。然后,例如通过分类模型,基于情感特征集合来识别当前用户的情感类别。在一些实施例中,所识别情感类别例如是:高兴、失望、困惑等。上述分类模型可以是基于机器学习网络,例如是lr(logisticregression)、svm(supportvectormachine)、rf(randomforest)等,也可以采用基于贝叶斯的神经网络。在一些实施例中,分类模型识别情感类别的同时,还可以给出该情感的置信度,以便人机交互设备110的情感识别结果更加可信。

在框212处,人机交互设备110基于输入请求和情感数据,生成针对输入请求的会话输出。例如,人机交互设备110将该会话输出反馈给交互对象122。在一些实施例中,人机交互设备110中的会话引擎接收到交互对象122的输入请求和用户画像的分析结果,通过多种会话引擎的共同协作,生成会话输出。在一些实施例中,人机交互设备110基于用户画像信息(例如交互对象122的属性)、基于多模态数据所识别的情感数据、以及会话引擎,生成会话输出。例如,会话机器人或虚拟形象114可以基于所生成的会话输出与交互对象122进行交互。

在上述方案中,通过提取交互对象的多种类型的数据的特征,以及基于同一类型的数据特征之间的相关性以及不同类型的数据特征之间的相关性来确定注意力权重;并且基于融合多种类型的数据的特征的情感数据生成针对输入请求的会话输出,本公开能够实现综合交互对象的多模态输入数据进行实时动态的响应,以及针对交互对象在不同时段的情感特点进行匹配的响应。

在一些实施例中,方法200还包括生成针对输入请求的会话的方法。例如,人机交互设备110基于输入请求的数据类型,确定匹配的会话引擎;以及基于所确定的匹配的会话引擎,生成会话输出。以下结合图3和图4说明用于生成针对输入请求的会话的方法400。

图3示出了根据本公开的实施例的会话模块300的示意图。应当理解,会话模块300还可以包括未示出的附加组成部分和/或可以省略所示出的组成部份,本公开的范围在此方面不受限制。

如图3所示,会话模块300例如而不限于包括:会话控制器310、多个会话引擎320至330和会话答案重排序模块340。其中,会话引擎320用于基于交互对象122的输入请求的内容或数据类型,进行会话引擎的路由策略选择。多个会话引擎中320至330的每个会话引擎例如都包含了以下处理:针对输入请求的语义理解、识别输入请求的意图、对话状态控制、对话管理、生成会话输出等。每个被选择的会话引擎启动后,根据自身内部的逻辑算法生成会话答案。会话答案重新排序模块340用于将汇总多种会话引擎生成的会话答案,并且使用learningtorank、置信度以及一些基于规则的方法对会话答案进行重新打分排序,最终选出针对交互对象122的输入请求的最佳的会话输出。

图4示出了根据本公开的实施例的用于生成针对输入请求的会话的方法400的流程图。在图4中,各个动作例如由人机交互设备110执行。应当理解,方法400还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框402处,人机交互设备110确定交互对象122的输入请求的数据类型是否为文本数据。

在框404处,如果人机交互设备110确定交互对象122的输入请求的数据类型为文本数据,将基于表格数据的会话引擎326、基于知识图谱的会话引擎320、基于非结构化数据的会话引擎324中的至少一个会话引擎确定为匹配的会话引擎。经研究发现,当交互对象122的输入为文本数据时,通常对响应时间要求并非很高,而对回答内容的准确率的要求较高,此时会话控制器310会挑选较为准确的会话引擎,以用于生成会话输出,例如是:基于表格数据的会话引擎326、基于知识图谱的会话引擎320、基于非结构化数据的会话引擎324。

在框406处,人机交互设备110确定交互对象122的输入请求的数据类型是否为语音数据。

在框408处,如果人机交互设备110确定交互对象122的输入请求的数据类型为语音数据,将基于qa对的会话引擎322和基于规则的会话引擎328中的至少一个会话引擎确定为匹配的会话引擎。经研究发现,当交互对象122的输入为语音数据时,通常交互对象122针对响应时间要求较高,此时会话控制器会挑选响应时间较短的会话引擎,以用于生成会话输出,例如是:基于qa对的会话引擎322和基于规则的会话引擎328。在一些实施例中,如果人机交互设备110确定交互对象122的输入的内容超出知识图谱的预定范围,不将基于知识图谱的会话引擎320确定为匹配的会话引擎。

在上述方案中,通过基于交互对象122的输入请求的数据类型来动态地选择匹配的会话引擎,有利于平衡生成会话输出的相应时间和效率。

图5示出了根据本公开的实施例的用于确定会话引擎的方法500的流程图。在图5中,各个动作例如由人机交互设备110执行。应当理解,方法500还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框502处,人机交互设备110获取交互对象122的属性。在一些实施例中,交互对象的属性的确定方式例如包括:人机交互设备110使得交互对象122的行为数据与当前时段相关联;以及基于交互对象122的行为数据和输入请求,确定交互对象12的属性,交互对象的属性与当前时段相关联可以是基于交互对象的行为数据、输入请求和当前时段而确定的,交互对象的属性与当前时段相关联。

在框504处,人机交互设备110基于交互对象122的属性和输入请求的内容,经由分类模型,确定匹配的会话引擎的类别,以用于基于所确定的匹配的会话引擎生成会话输出。

应当理解,在图3的多个会话引擎320至330中,有的会话引擎更适合用于生成闲聊时的会话输出,有的会话引擎更适合生成关于业务问题的会话输出。图3所示的会话控制器310会根据所获取的当前交互对象122的属性及输入内容,经由分类模型进行来选择会话引擎。如果交互对象122的输入请求的答案包含在基于知识图谱的会话引擎320中,则人机交互设备110会使用该基于知识图谱的会话引擎320生成用于回复交互对象122的输入请求的会话输出。

关于分类模型,在一些实施例中,采用textcnn网络构建分类模型。以下结合图6来说明textcnn网络构建会话引擎的分类模型。

图6示出了根据本公开的实施例的用于构建分类模型的textcnn结构的示意图。如图6所示,610指示所输入的一个句子。首先对该句子610进行切词,例如该句子610有7个单词,每个单词可以表征成一个多维(例如5维)向量。则基于该句子610可以得到7*5的矩阵620。使用卷积神经网络针对矩阵620提取特征,以生成特征图640。基于不同尺寸的卷积核630所得到的特征图640的大小不同。针对各个卷积核提取最大的特征图(featuremap)650,使用1-maxpooling进行拼接,以生成特征向量660。例如,如图6所示,6个单变量的向量被串级在一起形成一个特征向量660。然后将特征向量660输入softmax函数,进而得到类别670。在一些实施例中,人机交互设备110对于softmax函数的输出改用对比损失函数l,其中,加入了会话引擎耗时的权重α,使得分类的距离与耗时加权以便使得模型能够根据输入同时选中多个会话引擎。以下结合公式(1)说明对比损失函数l函数。

在上述公式(1)中,dw代表两个样本x1和x2特征的欧氏距离,y代表两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,m代表设定的阈值。x1和x2分别代表两个样本。

通过采用textcnn网络构建会话引擎分类模型,本公开的分类模型简单,易于部署,而且能够高效针对文本输入分类,提高用户反馈的实时性;此外,能够并行地计算n-gram的语言特征,并且考虑词汇前后的邻接关系。另外,通过使得textcnn网络的softmax函数的输出改用对比损失函数l,能够使得模型根据输入同时选中多个会话引擎。

在一些实施例中,人机交互设备110不仅能够判断整句的情感类别,还可以以更细粒度地感知用户的情感。以下结合图7说明用于识别情感的方法。图7示出了根据本公开的实施例的用于识别情感的方法700的流程图。在图7中,各个动作例如由人机交互设备110执行。方法700还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。

在框702处,人机交互设备110确定交互对象的输入请求所针对的情感对象。在一些实施例中,人机交互设备110可以识别交互对象122所讨论的情感对象。例如,交互对象122的输入请求是“xx的大厅环境不错,各项设施齐全,产品比较全,但是服务人员的服务态度不好,体验很差”。人机交互设备110可以通过自然语言处理中的分词、词性标注、依存句法分析、语义角色标注等手段确定(定位)上述输入请求中所针对的情感对象。例如,人机交互设备110确定交互对象122的上述输入请求所针对的情感对象分别是:“大厅环境”、“设施”、“产品”、“服务”、“体验”。

在框704处,人机交互设备110可以确定关于所确定的情感对象的描述。在一些实施例中,人机交互设备110使用依存句法分析、序列标注等方法找到情感对象的描述。例如,人机交互设备110可以确定关于所确定的情感对象“大厅环境”的描述为“不错”;关于情感对象“设施”的描述为“齐全”;关于情感对象“产品”的描述为“比较全”,关于情感对象“服务”的描述为“态度不好”;关于情感对象“体验”的描述为“很差”。通过采用上述手段,可以识别出交互对象对于哪些情感对象的情感是负面的,进入可以通过会话输出有针对性地进行安抚。

在框706处,人机交互设备110基于情感对象的描述,经由分类模型,确定关于情感对象的情感类别。

在一些实施例中,人机交互设备110根据相应的情感对象的描述同时使用机器学习分类算法,得到情感对象的情感类别。例如,分类模型例如是基于bert+bi-lstm+crf模型而构建。训练样本例如是多个经标注的历史语音会话样本。历史语音会话样本例如经由tts转换到文本,再利用文本标注的工具针对情感对象和描述进行标注。在一些实施例中,可以针对传统的bert+bi-lstm+crf模型中的bi-lstm结构进行解构,以使得更加适应于情感识别这一应用场景。例如,使用bi-lstm的中间状态对词汇权重进行解构,使用模型中间的状态反向预测情感对象和情感类别,从而成功预测出交互对象122的输入请求所代表的评价信息。以下结合公式(2)和(3)来说明用于确定关于情感对象的情感类别的分类模型。

βi,j=exp(wi(ot⊙(tanh(cj)-tanh(cj-1)))(2)

在上述公式(2)和(3)中,wi代表bi-lstm网络的参数。ht代表中间状态。代表一系列词汇的代表权重。

在一些实施例中,可以基于直接构建一个短语抽取器。该短语抽取器能够直接在交互对象122的输入请求中抽取出高权重的短语组合,例如“大厅环境不错”这样的短语组合。以下结合公式(4)来说明用于在交互对象122的输入请求中抽取出高权重的短语组合的方式。

在上述公式(4)中,c(w1,w2,.......,wk)代表分类器。w1,w2,.......,wk代表词汇序列。si(w1,w2,.......,wk)代表短语组合的概率。代表一系列词汇的代表权重。

为了实现在输入请求中抽取出高权重的短语组合,可以针对词汇序列:w1,w2,.......,wk通过语言模型计算不同短语组合的分数,来最大化那些最有可能的短语组合的概率,最后通过一个分类器c(w1,w2,.......,wk)给出该短语组合的分类结果。

在框708处,人机交互设备110基于关于情感对象的情感类别,确定情感数据。

通过采用上述手段,本公开可以不仅针对与交互对象输入请求所对应的整个文档或整句话来识别情感类别,而且可以针对情感表达的对象,即情感对象(某话题)来识别情感类别,进而使得识别情感的粒度可达到aspect-级,有利于挖掘出交互对象输入请求中更多更细的情感信息。

图8示出了根据本公开的实施例的用于确定注意力权重的方法的示意图。如前文,多种类型(多模态)的数据的特征通常来源于不同的信息流,这些信息流通常通过不同的输入设备来获取。为了融合来源于不同的信息流多种类型的数据的特征,传统的做法是将这些信息转换为彼此各自的空间表示,再进行拼接、求和、平均等简单的处理方式,而并不关注多种类型(多模态)的数据的特征彼此之间的内在联系。

本公开的例如针对分别提取的多种类型(多模态)的数据的特征(例如图像数据特征、文本数据特征、语音数据特征),然后通过模态内部的注意力(attention)建模和模态间的attention建模,这个模块堆叠多次,最后将拼接后的特征作为后续任务的输入特征。其中,模态间的attention是相互的(例如,针对文本数据特征对图像数据特征,或者图像数据特征对文本数据特征等两两进行计算)。

如图8所示,810示意注意力权重计算过程。820示意模态间的注意力权重计算,即基于多种类型中的不同类型的数据(例如,图象数据和文本数据)的特征之间的相关性计算过程,经由该计算过程可生成第二注意力权重(即模态间注意力权重)。822指示图象数据向量,每一帧图像例如对应一个向量。826指示词汇数据向量。连线824指示连线所连接的对应词汇数据向量826和对应图象数据特征向量822之间的运算。830示意模态内的权重计算,即基于多种类型中的同一类型的数据(例如,图象数据内部、文本数据内部)的所提取特征之间的相关性计算,经由该计算可生成第一注意力权重(即模态内注意力权重)。例如连线834指示连线所连接的同一文本数据中不同词汇数据特征向量之间的运算。连线832指示所连接的不同图象数据特征向量之间的运算。840示意注意力权重计算结束。其中,例如实线842指示实线所连接的对应数据特征向量之间的相关程度高(注意力权重高),虚线844指示虚线所连接的对应数据特征向量之间的相关程度低(注意力权重低)。

通过采用基于模态内特征相关度和模态间特征相关度计算注意力权重进而融合多模态特征,能够获得更好的特征融合效果。

图9示意性示出了适于用来实现本公开实施例的电子设备900的框图。设备900可以用于实现图1的人机交互设备110。如图所示,设备900包括中央处理单元(cpu)901,其可以根据存储在只读存储器(rom)902中的计算机程序指令或者从存储单元908加载到随机访问存储器(ram)903中的计算机程序指令,来执行各种适当的动作和处理。在ram903中,还可存储设备900操作所需的各种程序和数据。cpu901、rom902以及ram903通过总线904彼此相连。输入/输出(i/o)接口905也连接至总线904。

设备900中的多个部件连接至i/o接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

处理单元901执行上文所描述的各个方法和处理,例如执行方法200、400、500、700。例如,在一些实施例中,方法200、400、500、700可被实现为计算机软件程序,其被存储于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由rom902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到ram903并由cpu901执行时,可以执行上文描述的方法200、400、500、700的一个或多个操作。备选地,在其他实施例中,cpu901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200、400、500、700的一个或多个动作。

本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。

计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式压缩盘只读存储器(cd-rom)、数字多功能盘(dvd)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。

这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。

用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如smalltalk、c++等,以及常规的过程式编程语言—诸如“c”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。

这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。

这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。

也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。

附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

以上仅为本公开的可选实施例,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等效替换、改进等,均应包含在本公开的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1