基于情绪识别的线上培训效果评估方法、装置和设备与流程

文档序号:24073199发布日期:2021-02-26 16:11阅读:106来源:国知局
基于情绪识别的线上培训效果评估方法、装置和设备与流程

[0001]
本申请涉及到情绪识别领域,特别是涉及到一种基于情绪识别的线上培训效果评估方法、装置和计算机设备。


背景技术:

[0002]
情绪识别是人工智能领域的一个发展方向,通过人脸表情、生物电信息,动作信息等作为情感分类计算的基础信号数据来对人的情绪进行分析。早在20世纪专家就通过跨文化调研提出了七类基础表情,分别是生气、害怕、厌恶、开心、悲伤、惊讶以及中立。经过不断的研究发现,这七类情绪并不能完全涵盖人们日常生活中的常见情绪表达,针对这个问题,提出了复合表情的概念,即多个离散的基础表情能够结合在一起从而形成一种复合表情,这种复合表情往往通过在各个基础表情上的占比来直观展现。
[0003]
在互联网流行趋势的席卷下,传统的线下培训逐渐转向线上。线上培训使得讲师和观众能够打破空间和时间的间隔,更加方便高效地进行知识传播。例如传统的线下培训由于场地限制,往往不能容纳上万观众,并且如果观众错过了线下培训,也很难重新进行学习。但线上培训也存在着一些重大缺陷,其中最突出的问题是,相比于线下面对学员,线上培训讲师面对的只有录像设备以及屏幕上的弹幕评论。正是由于这种不同,线上讲师与观众的互动存在很大局限性,观众能够较好地理解讲师或主播的内容,但讲师不能够很好地从观众身上得到比较直观,全面的反馈。


技术实现要素:

[0004]
本申请的主要目的为提供一种基于情绪识别的线上培训效果评估方法、装置和计算机设备,旨在解决目前的线上培训无法直观地从观众身上得到评价与反馈的问题。
[0005]
为了实现上述发明目的,本申请提出一种基于情绪识别的线上培训效果评估方法,包括:
[0006]
在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0007]
对所述面部图像进行情绪识别,得到情绪识别结果;
[0008]
对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0009]
重复前述步骤直到培训结束,根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0010]
进一步地,所述对所述面部图像进行情绪识别,得到情绪识别结果步骤之前包括:
[0011]
建立基于深度学习的情绪识别卷积神经网络模型,所述情绪识别卷积神经网络模型包括卷积层、池化层和全连接层;
[0012]
获取人脸情绪图像数据样本集,将所述人脸情绪图像数据样本集分成样本训练集和测试集,分别利用所述训练集和测试集对所述情绪识别卷积神经网络模型进行训练和测试,得到训练完成的情绪识别积神经网络模型;
[0013]
所述对所述面部图像进行情绪识别,得到情绪识别结果的步骤包括:
[0014]
将所述面部图像输入至所述训练完成的情绪识别卷积神经网络模型中,获得所述情绪识别结果。
[0015]
进一步地,所述情绪识别卷积神经网络模型还包括输入层,用于对面部图像进行预处理,对面部图像进行预处理的步骤包括:
[0016]
对所述面部图像进行灰度级变换处理,得到灰度图片;
[0017]
对所述面部图像进行去噪处理,得到处理过的面部图像。
[0018]
进一步地,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤包括:
[0019]
将全部观众的情绪识别结果进行整理汇总,生成情绪分类图表;
[0020]
将所述情绪分类图表发送给培训讲师。
[0021]
进一步地,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤还包括:
[0022]
在培训讲师的客户端生成虚拟观众席,将每个观众的情绪识别结果对应显示在虚拟观众席的虚拟观众上。
[0023]
进一步地,所述将所述情绪分类图表发送给培训讲师的步骤之后还包括:
[0024]
当所述情绪分类图表中的指定情绪比例超过预设值时,给培训讲师发出提示。
[0025]
进一步地,所述根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价的步骤包括:
[0026]
收集培训过程中的弹幕评论,对所述弹幕评论进行情感分类,分类结果包括积极评论、中性评论和消极评论,根据预设的弹幕评分规则得到弹幕评分;
[0027]
邀请所有观众对培训课程进行评价,得到反馈评分;
[0028]
根据所述情绪分类图表利用预设的情绪评分规则得到情绪评分;
[0029]
对所述弹幕评分、反馈评分、情绪评分进行加权求和,得到最终的评价得分。
[0030]
本申请实施例还提供一种基于情绪识别的线上培训效果评估装置,包括:
[0031]
采集模块,用于在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0032]
情绪识别模块,用于对所述面部图像进行情绪识别,得到情绪识别结果;
[0033]
整合分析模块,用于对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0034]
评价模块,用于根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0035]
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
[0036]
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
[0037]
本申请的基于情绪识别的线上培训效果评估方法、装置和计算机设备,通过采集观众的人脸图像,利用情绪识别模型进行情绪识别,将情绪识别结果发送给培训讲师使其可以根据观众情绪变化调整讲课节奏,提高培线上训效果,还可以结合培训过程中的弹幕评论和培训结束后的反馈评分,综合评估线上培训效果,使评估结果更加客观、准确。
附图说明
[0038]
图1为本申请一实施例的基于情绪识别的线上培训效果评估方法的流程示意图;
[0039]
图2为本申请一实施例的基于情绪识别的线上培训效果评估装置的结构示意框图;
[0040]
图3为本申请一实施例的计算机设备的结构示意框图。
[0041]
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0042]
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
[0043]
参照图1,本申请实施例中提供一种基于情绪识别的线上培训效果评估方法,包括步骤:
[0044]
s1、在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0045]
s2、对所述面部图像进行情绪识别,得到情绪识别结果;
[0046]
s3、对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0047]
s4、重复前述步骤直到培训结束,根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0048]
如上述步骤s1所述,在线上培训过程中,可以按照预设的频率对观众的面部图像进行采集,采集设备为摄像头,例如,观众使用移动终端如手机、平板电脑等参与线上培训,那么采集设备为移动终端的前置摄像头。图像采集频率可以是预先设定好的,也可以根据培训讲师预估的培训时长以及培训内容按照预设的规则进行自动设定。可以理解地,可能会存在一些原因如采集设备故障、观众并没有面对采集设备等导致无法采集到某个观众的面部图像,在一个实施例中,可以在连续的多次未采集到同一个观众的面部图像时,在该观众的观看线上培训的设备的客户端上生成交互窗口,所述交互窗口用于获取用户目前状态,若该观众未能在指定时间内点击所述交互窗口,则说明该观众不在设备前或该观众已离线。
[0049]
如上述步骤s2所述,在采集到观众的面部图像后,对这些面部图像进行情绪识别。可以利用基于深度学习的网络模型进行情绪识别,例如,可以利用卷积神经网络模型对面部图像进行识别,相对于传统的svm情绪识别模型,利用卷积神经网络模型进行情绪识别具有更高的准确率。
[0050]
如上述步骤s3所述,在得到每位观众的情绪识别结果后,可以将所有观众的情绪识别进过进行整合分析,将分析结果发送给培训讲师,以供培训讲师根据观众的情绪改变讲课节奏。例如,如果整体的情绪分析在惊讶的维度打分最高,讲师可以着重对已陈述的观点作进一步补充;如果整体的情绪分析在中立或厌恶的维度打分较高,那么讲师则需要转变节奏,避免观众走神或流失。
[0051]
如上述步骤s4所述,通过采集观众的面部图像进行人脸识别,并将人脸识别结果进行整合分析,发送给讲师以提高培训效果。为了使培训效果评估g更加客观准确,本方案
中同时考虑了培训过程中观众发表的弹幕评论和培训结束后观众对培训课程直接的反馈评价,综合上述步骤得到的情绪识别结果来对培训课程的培训效果进行评估。
[0052]
在一个实施例中,所述对所述面部图像进行情绪识别,得到情绪识别结果步骤之前包括:
[0053]
s201、建立基于深度学习的情绪识别卷积神经网络模型,所述情绪识别卷积神经网络模型包括卷积层、池化层和全连接层;
[0054]
s202、获取人脸情绪图像数据样本集,将所述人脸情绪图像数据样本集分成样本训练集和测试集,分别利用所述训练集和测试集对所述情绪识别卷积神经网络模型进行训练和测试,得到训练完成的情绪识别积神经网络模型;
[0055]
所述对所述面部图像进行情绪识别,得到情绪识别结果的步骤包括:
[0056]
s21、将所述面部图像输入至所述训练完成的情绪识别卷积神经网络模型中,获得所述情绪识别结果。
[0057]
如上所述,所述情绪识别卷积神经网络包括卷积层、池化层和全连接层,其中卷积层用于特征提取,池化层用于特征维度压缩,全连接层用于情绪识别分类。其中,所述全连接层包括7个分类器,每个分类器对应一种情绪,分别是生气,害怕,厌恶,开心,悲伤,惊讶以及中立。通过全连接层可以得到面部图像对应到各个分类器的概率,从7个概率中,选取概率最大的情绪状态作为面部图像中人脸的情绪状态。
[0058]
如下表所示,如果模型输出结果如下表所示,则表示面部图像的情绪状态为分类器6所对应的“惊讶”。
[0059]
表1:
[0060]
全连接层分类器1分类器2分类器3分类器4分类器5分类器6分类器7面部图像0%8%2%1%2%80%7%
[0061]
在一个具体的实施例中,所述情绪识别卷积神经网络模型还包括输入层,用于对面部图像进行预处理,对面部图像进行预处理的步骤包括:
[0062]
s211、对所述面部图像进行灰度级变换处理,得到灰度图片;
[0063]
s212、对所述面部图像进行去噪处理,得到处理过的面部图像。
[0064]
如上所述,灰度图片是指只含亮度信息,不含色彩信息的图片,灰度级变换处理是将含有亮度和色彩的待识别图片变换成灰度图片的过程,按照公式(1)使用预设的灰度值变换函数对待识别的人脸图片进行灰度级变换处理:g(x,y)=t(f(x,y),其中,f为待识别的人脸图片,t为预设的灰度值变换函数,g为灰度图片,x和y分别表示待识别的人脸图片中的横坐标与纵坐标,f(x,y)表示待识别的人脸图片中坐标点(x,y)对应的像素值,g(x,y)表示灰度图片中坐标点(x,y)对应的像素值。图像噪声是指存在于图像数据中的不必要的或多余的干扰信息,例如,高斯噪声、瑞利噪声、伽马噪声和椒盐噪声等,噪声会人脸图片的识别造成影响,因此,可以采用均值滤波、中值滤波或者维纳滤波等方法对灰度图片进行噪声去除处理。
[0065]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤包括:
[0066]
s31、将全部观众的情绪识别结果进行整理汇总,生成情绪分类图表;
[0067]
s32、将所述情绪分类图表发送给培训讲师。
[0068]
如上所述,所述情绪分类图表可以是柱状图或者扇形图的形式,使培训讲师对观众的总体情绪状态有一个整体的了解,以便调整自己的讲课节奏。在面部图像采集频率较高时,所述情绪分类图表还可以以动态图表的形式展现给培训讲师,使培训讲师对观众的情绪变化情况有一个更动态更直观的了解。
[0069]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤还包括:
[0070]
s301、在培训讲师的客户端生成虚拟观众席,将每个观众的情绪识别结果对应显示在虚拟观众席的虚拟观众上。
[0071]
如上所述,通过生成虚拟观众,可以更加直观的显示观众的整体情绪状态。具体地,还可以针对特定的情绪状态设定特定的颜色,例如将能够直接反应观众对培训内容的情感评价的情绪如“惊讶”设置为蓝色,将“厌恶”设置为红色,将其他状态设置为绿色等,培训讲师可以通过虚拟观众席的情绪颜色和颜色变化更加直观地了解观众的情绪变化,以使自己及时调整讲课节奏,提高培训效果。
[0072]
在一个实施例中,所述将所述情绪分类图表发送给培训讲师的步骤之后还包括:
[0073]
s321、当所述情绪分类图表中的指定情绪比例超过预设值时,给培训讲师发出提示。
[0074]
如上所述,在培训讲师进行讲课的过程中,虽然将情绪分类图表发给了培训讲师,但可能因为讲师讲课比较专注,并不能实时关注观众的情绪变化。在本实施例中,通过当指定情绪比例超过预设值,例如当观众“惊讶”的表情整体占比超过30%时,可以生成提示并发送给培训讲师,所述提示可以为声音提示或弹窗提示。
[0075]
在一个实施例中,所述根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价的步骤包括:
[0076]
s41、收集培训过程中的弹幕评论,对所述弹幕评论进行情感分类,分类结果包括积极评论、中性评论和消极评论,根据预设的弹幕评分规则得到弹幕评分;
[0077]
s42、邀请所有观众对培训课程进行评价,得到反馈评分;
[0078]
s43、根据所述情绪分类图表利用预设的情绪评分规则得到情绪评分;
[0079]
s44、对所述弹幕评分、反馈评分、情绪评分进行加权求和,得到最终的评价得分。
[0080]
如上所述,可以利用加权求和的方法,综合培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。其中对弹幕评论进行情感分类的过程可以利用机器学习模型实现,预设的规则可以是人为设计的规则,根据积极评论、中性评论和消极评论的占比确定弹幕评分。情绪评分的确定过程中预设的规则可以根据出现消极类情绪如“惊讶”、“厌恶”等的占比制定对应的评分规则,从而得到情绪得分。
[0081]
本申请实施例的基于情绪识别的线上培训效果评估方法,通过采集观众的人脸图像,利用情绪识别模型进行情绪识别,将情绪识别结果发送给培训讲师使其可以根据观众情绪变化调整讲课节奏,提高培线上训效果,还可以结合培训过程中的弹幕评论和培训结束后的反馈评分,综合评估线上培训效果,使评估结果更加客观、准确。
[0082]
参照图2,本申请实施例中还提供一种基于情绪识别的线上培训效果评估装置,包括:
[0083]
采集模块1,用于在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0084]
情绪识别模块2,用于对所述面部图像进行情绪识别,得到情绪识别结果;
[0085]
整合分析模块3,用于对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0086]
评价模块4,用于根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0087]
在一个实施例中,所述基于情绪识别的线上培训效果评估装置还包括:
[0088]
模型创建单元,用于建立基于深度学习的情绪识别卷积神经网络模型,所述情绪识别卷积神经网络模型包括卷积层、池化层和全连接层;
[0089]
模型训练单元,用于获取人脸情绪图像数据样本集,将所述人脸情绪图像数据样本集分成样本训练集和测试集,分别利用所述训练集和测试集对所述情绪识别卷积神经网络模型进行训练和测试,得到训练完成的情绪识别积神经网络模型;
[0090]
所述情绪识别模块2包括情绪识别单元,用于将所述面部图像输入至所述训练完成的情绪识别卷积神经网络模型中,获得所述情绪识别结果。
[0091]
在一个具体的实施例中,所述情绪识别模块2还包括用于面部图像进行预处理的预处理单元,所述预处理单元包括:
[0092]
灰度变换单元,用于对所述面部图像进行灰度级变换处理,得到灰度图片;
[0093]
去噪单元,用于对所述面部图像进行去噪处理,得到处理过的面部图像。
[0094]
在一个实施例中,所述整合分析模块3包括:
[0095]
整理单元,用于将全部观众的情绪识别结果进行整理汇总,生成情绪分类图表;
[0096]
发送单元,用于将所述情绪分类图表发送给培训讲师。
[0097]
在一个具体的实施例中,所述整合分析模块3还包括:
[0098]
虚拟观众生成展示单元,用于在培训讲师的客户端生成虚拟观众席,将每个观众的情绪识别结果对应显示在虚拟观众席的虚拟观众上。
[0099]
在一个具体的实施例中,所述整合分析模块3还包括:
[0100]
提示单元,用于当所述情绪分类图表中的指定情绪比例超过预设值时,给培训讲师发出提示。
[0101]
在一个实施例中,所述评价模块4包括:
[0102]
弹幕评分单元,用于收集培训过程中的弹幕评论,对所述弹幕评论进行情感分类,分类结果包括积极评论、中性评论和消极评论,根据预设的弹幕评分规则得到弹幕评分;
[0103]
反馈评分单元,用于邀请所有观众对培训课程进行评价,得到反馈评分;
[0104]
情绪评分单元,用于根据所述情绪分类图表利用预设的情绪评分规则得到情绪评分;
[0105]
综合评分单元,用于对所述弹幕评分、反馈评分、情绪评分进行加权求和,得到最终的评价得分。
[0106]
如上所述,可以理解地,本申请中提出的所述基于情绪识别的线上培训效果评估装置的各组成部分可以实现如上所述基于情绪识别的线上培训效果评估方法任一项的功能,具体结构不再赘述。
[0107]
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于采集到的面部图像、情绪识别结果等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于情绪识别的线上培训效果评估方法。
[0108]
上述处理器执行上述的基于情绪识别的线上培训效果评估方法,包括:
[0109]
在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0110]
对所述面部图像进行情绪识别,得到情绪识别结果;
[0111]
对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0112]
重复前述步骤直到培训结束,根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0113]
在一个实施例中,所述对所述面部图像进行情绪识别,得到情绪识别结果步骤,包括:
[0114]
建立基于深度学习的情绪识别卷积神经网络模型,所述情绪识别卷积神经网络包括卷积层、池化层和全连接层;
[0115]
获取人脸情绪图像数据样本集,将所述人脸情绪图像数据样本集分成样本训练集和测试集,分别利用所述训练集和测试集对所述情绪识别卷积神经网络模型进行训练和测试,得到训练完成的情绪识别积神经网络模型;
[0116]
将所述面部图像输入至所述训练完成的情绪识别卷积神经网络模型中,获得所述情绪识别结果。
[0117]
在一个实施例中,所述情绪识别卷积神经网络模型还包括输入层,用于对面部图像进行预处理,对面部图像进行预处理的步骤包括:
[0118]
对所述面部图像进行灰度级变换处理,得到灰度图片;
[0119]
对所述面部图像进行去噪处理,得到处理过的面部图像。
[0120]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤包括:
[0121]
将全部观众的情绪识别结果进行整理汇总,生成情绪分类图表;
[0122]
将所述情绪分类图表发送给培训讲师。
[0123]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤还包括:
[0124]
在培训讲师的客户端生成虚拟观众席,将每个观众的情绪识别结果对应显示在虚拟观众席的虚拟观众上。
[0125]
在一个实施例中,所述将所述情绪分类图表发送给培训讲师的步骤之后还包括:
[0126]
当所述情绪分类图表中的指定情绪比例超过预设值时,给培训讲师发出提示。
[0127]
在一个实施例中,所述根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价的步骤包括:
[0128]
收集培训过程中的弹幕评论,对所述弹幕评论进行情感分类,分类结果包括积极评论、中性评论和消极评论,根据预设的弹幕评分规则得到弹幕评分;
[0129]
邀请所有观众对培训课程进行评价,得到反馈评分;
[0130]
根据所述情绪分类图表利用预设的情绪评分规则得到情绪评分;
[0131]
对所述弹幕评分、反馈评分、情绪评分进行加权求和,得到最终的评价得分。
[0132]
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种基于情绪识别的线上培训效果评估方法包括:
[0133]
在培训过程中,按照预设的频率对观众进行面部图像采集,得到观众的面部图像;
[0134]
对所述面部图像进行情绪识别,得到情绪识别结果;
[0135]
对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师;
[0136]
重复前述步骤直到培训结束,根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价。
[0137]
在一个实施例中,所述对所述面部图像进行情绪识别,得到情绪识别结果步骤,包括:
[0138]
建立基于深度学习的情绪识别卷积神经网络模型,所述情绪识别卷积神经网络包括卷积层、池化层和全连接层;
[0139]
获取人脸情绪图像数据样本集,将所述人脸情绪图像数据样本集分成样本训练集和测试集,分别利用所述训练集和测试集对所述情绪识别卷积神经网络模型进行训练和测试,得到训练完成的情绪识别积神经网络模型;
[0140]
将所述面部图像输入至所述训练完成的情绪识别卷积神经网络模型中,获得所述情绪识别结果。
[0141]
在一个实施例中,所述情绪识别卷积神经网络模型还包括输入层,用于对面部图像进行预处理,对面部图像进行预处理的步骤包括:
[0142]
对所述面部图像进行灰度级变换处理,得到灰度图片;
[0143]
对所述面部图像进行去噪处理,得到处理过的面部图像。
[0144]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤包括:
[0145]
将全部观众的情绪识别结果进行整理汇总,生成情绪分类图表;
[0146]
将所述情绪分类图表发送给培训讲师。
[0147]
在一个实施例中,所述对所述情绪识别结果进行整合分析,将分析结果发送给培训讲师的步骤还包括:
[0148]
在培训讲师的客户端生成虚拟观众席,将每个观众的情绪识别结果对应显示在虚拟观众席的虚拟观众上。
[0149]
在一个实施例中,所述将所述情绪分类图表发送给培训讲师的步骤之后还包括:
[0150]
当所述情绪分类图表中的指定情绪比例超过预设值时,给培训讲师发出提示。
[0151]
在一个实施例中,所述根据培训过程中生成的弹幕评论、培训结束后观众的反馈评分以及培训过程中观众的情绪变化情况对整个培训过程做出评价的步骤包括:
[0152]
收集培训过程中的弹幕评论,对所述弹幕评论进行情感分类,分类结果包括积极评论、中性评论和消极评论,根据预设的弹幕评分规则得到弹幕评分;
[0153]
邀请所有观众对培训课程进行评价,得到反馈评分;
[0154]
根据所述情绪分类图表利用预设的情绪评分规则得到情绪评分;
[0155]
对所述弹幕评分、反馈评分、情绪评分进行加权求和,得到最终的评价得分。
[0156]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双速据率sdram(ssrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0157]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
[0158]
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1