一种多模态融合的教态分析系统

文档序号:27204457发布日期:2021-11-03 14:05阅读:172来源:国知局
一种多模态融合的教态分析系统

1.本发明涉及人工智能领域,尤其涉及一种多模态融合的教态分析系统。


背景技术:

2.本发明要解决的问题:搭建一个辅助教师教研的智能化教态分析系统,结合音频、视频信息识别讲授内容、情绪表情,通过多模态融合及多标签分类识别教研中关心的复合型教态,从而辅助教研人员进行教态中形态、心态、文态、语态的分析。
3.随着教育信息化的普及与推广,摄像头在教室中越来越普及。同时,基于视频的动作识别是计算机视觉的一个研究方向,通常分为直接利用视频进行动作识别与人体关键点识别后进行动作分类识别。从而,会有相关的针对学生学习或教师教学活动视频或语音的分析与研究。
4.(1)视频动作识别:《two

stream convolutional networks for action recognition in videos》,如图1所示,通过双流进行视频动作识别,分为空间流与时间流,空间流对一段视频的单帧图像提取特征并进行分类,时间流对多帧之间的光流提取特征并进行分类,双流在决策层进行融合,采用了两种方法融合,一种方法为直接取双流softmax分数的平均值,另一种方法则通过训练一个多类别的线性svm模型。这种融合方式缺乏对先验场景条件的利用。
5.(2)语音识别方面,现有技术已可支持识别语音的语义、声纹、情绪等。
6.(3)多模态方面,包含图像、视频、音频、语义之间的多模态学习,其中多模态融合分为物理层融合、特征层融合、决策层融合几个类型。物理层融合即在数据采集部分进行融合,特征层融合指在模型特征部分进行融合,决策层融合即不同模态独立分别进行学习,在最终结果部分进行融合。
7.多模态动作识别,《fusing multi

stream deep networks for video classification》,结构如图2所示,通过空间流、动作流与语音流对视频分类。空间流利用convnet网络提取单帧空间特征,动作流对多帧之间的光流提取特征利用lstm进行分类,语音流通过将单声道转为2d声纹图,利用convnet提取特征,最终将三流的预测结果利用可自适应的方式融合。
8.多标签分类与多类别分类不同,如图3所示。多类别的分类,每个分类模型的预测结果只有一个,但多标签分类的模型预测结果会产生多个,从而可以得到更多维度的预测信息。
9.现有的智能化课堂识别系统,其功能多为现有技术的组合,包括利用视频与语音的独立识别。在中国专利cn111967703a《课堂教学“言语——行为”大数据同步分析系统》中提到,通过人脸识别、体形识别、语音识别分别对教师教学进行评价。人脸识别系统对教师和学生的面部表情和眼神等进行跟踪监测,语言识别系统对教师和学生的有声语言作进行检测分析,行为识别系统对教师和学生的肢体神态、肢体动作进行跟踪分析并采集基本数据。可以看出该分析系统分别以人脸、体形和语音为根据进行评价,但缺少统一的评价标
准。
10.同时,现有技术无法得到多标签的复合型教态识别结果,即无法通过一组数据输入得到一组多维度的教态识别结果。
11.现有智能化教室系统,由于只能独立处理音、视频信号,因此很难实现对复合型教态进行高准确率的识别,会有大量的过检或误识。例如,当仅通过图像进行动作识别,由于缺少时序信息与语音语义信息,只能在有明确含义和特征的手势上有高准确率的识别,例如“表扬手势”。当需要识别较为复杂的动作,例如“播放多媒体”时,则无法直接通过老师是否低头看电脑或手拿遥控器进行评断。
12.现有智能化教室系统,普遍一个输入信号只能进行一个浅显的显式信息的识别(例如:“表扬手势”,“点头”),缺乏高阶多维度的教研意义(例如:“集体讲授”,“播放多媒体”)。然而,高阶多维度的教态无法通过单一动作进行判断,而是需要多模态信号输入进行判断。


技术实现要素:

13.针对现有技术的不足,本发明提供一种多模态融合的教态分析系统,包括预处理模块、识别模块和教态输出模块;其中,
14.预处理模块,用于接收并预处理时间同步的音频信号与视频信号;
15.识别模块,包括空间流模型、动作流模型、音频流模型和语义流模型,用于接收音频信号和视频信号预处理后的结果,并生成分类分数矩阵;
16.教态输出模块,用于接收分类分数矩阵,通过多模态多标签分类器输出教态信息。
17.进一步的,所述预处理模块包括音频处理单元与视频处理单元;其中,音频处理单元用于对音频信号进行预处理,获得声纹图序列,以及通过语义识别,获得音频的语义信息;
18.视频处理单元用于对视频信息进行预处理,获得视频的空间流序列和光流序列。
19.进一步的,所述识别模块包括空间流模型、动作流模型、音频流模型和语义型模型,其中,
20.空间流模型的输入为视频信号的空间流序列,空间流模型为lstm网络,其最后一层为sigmoid激活函数,损失函数为二值交叉熵损失函数,输出为多标签的空间流模型分类分数矩阵s1;
21.动作流模型的输入为视频信号的光流序列,通过lstm网络对图片序列进行特征提取,lstm网络的最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数;输出为多标签的动作流模型分类分数矩阵s2;
22.音频流模型的输入为音频信号的声纹图序列,通过lstm网络对声纹图序列进行特征提取,网络的最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数;输出为多标签的音频流模型分类分数矩阵s3;
23.语义流模型的输入为音频信号语音转写得到的文字,对文字进行嵌入操作,通过双向lstm网络对文本进行特征提取,最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数,输出为多标签的语义流模型分类分数矩阵s4。
24.进一步的,教态识别模块包括语音融合单元和多模态多标签分类器;其中,语音融
合单元,用于将s3与s4加权求和并归一化后得到语音融合分数矩阵s5;多模态多标签分类器,用于接收s1、s2与s5并将其组合成分数矩阵输入分类器,分类器包括顺次连接的分类分数融合卷积层和sigmoid激活函数,输出为对每个标签的类别预测概率,其中卷积层的损失函数采用二值交叉熵损失函数。
25.进一步的,在语音融合单元中,s3权重的获取方法包括:
26.a、获取多标签类别的关键词列表;设置s3的权重初值w0;
27.b、将训练数据经过音频预处理后的结果输入音频流模型与语义流模型得到s3和s4;
28.c、计算融合后的多标签分类序列s5=w
·
s3+s4,其中,w为s3的权重;
29.d、将s5与训练数据的真值序列进行比较,利用关键词损失函数计算本轮训练的损失值,进而调整权重w;
30.e、重复步骤b、c、d直到函数收敛,得到最终的权重。
31.进一步的,关键词损失函数为,
32.l
i


y
i
×
log(x
i
)

(1

y
i
)
×
log(1

x
i
)+ap
i
×
(ap
i

y
i
)log(x
i
),
33.其中i表示多标签类别,l
i
为该多标签类别损失值,y
i
为该多标签类别真实值,x
i
为该多标签类别预测值,ap
i
为该多标签类别关键词出现与否(0或1表示)。
34.进一步的,在所述b步骤中,还包括:遍历每个多标签类别i(i取1~n,n为多标签类别的数量),并做如下判断:
35.1)当输入语义流模型的文字包括多类别标签的关键词,且关键词的类别为所述文字的正确类别,则ap
i
=1,y
i
=1;
36.2)当输入语义流模型的文字包括多类别标签的关键词,且关键词的类别不是所述文字的正确类别,则ap
i
=1,y
i
=0;
37.3)当输入语义流模型的文字不包含多类别标签的关键词,且所述多标签类别为所述文字的正确类别,则ap
i
=0,y
i
=1;
38.4)当输入语义流模型的文字不包含多类别标签的关键词,且所述多标签类别不是所述文字的正确类别,则ap
i
=0,y
i
=0。
39.进一步的,所述s1、s2、s3、s4均为n
×
1维向量,n为多标签类别的数量,值为属于多标签类别的概率。
40.进一步的,所述系统还包括表请识别模块,用于对视频中的教师进行表请识别,表情分类为:积极表情,中性表情,消极表情。
41.进一步的,所述系统还包括分析模块,用于结合识别的情绪表情、教授内容及教态,以图表形式可视化呈现,辅助教研人员进行心态、体态、文态、语态的教态分析。
42.本发明与现有技术相比的有益效果为:
43.(1)本发明充分利用各模态自身的特点得到分支结果,而不会相互干扰,同时利用了动作、语音及语义信息的识别结果,最终在决策层进行加权融合,实现复合型动作的识别。
44.(2)本发明增加了语义与语音流,在融合两者的过程中,提出一种针对关键词的损失函数,人为矫正语义流中由于过拟合于关键词而导致的错分问题。
45.(3)本发明通过多标签识别形式,可以提供多维度的信息(“集体讲授”+“播放多媒
体”),而不仅仅是一个动作识别(“播放多媒体”)。
附图说明
46.图1为现有技术视频识别的系统结构示意图;
47.图2为现有技术多模态动作识别的系统结构示意图;
48.图3为多标签分类和多类别分类的区别示意图;
49.图4为根据本发明一个实施例的多模态融合的教态系统的结构示意图;
50.图5为根据本发明一个实施例的数据流向示意图;
51.图6为根据本发明一个实施例的的分数矩阵的融合过程示意图。
具体实施方式
52.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清查、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
53.下面结合附图及具体实施方式详细介绍本发明。
54.教态指教师姿态,重点考察教师在授课过程中的教授情况,从而辅助教研分析。马树芳提出教态应当包括教师的心态、语态、文态、体态等方面。
55.针对教态分析的分类可以例如表1所示,包括类别维度和多标签类别两项,具体值或内容没有积极或消极之分。
56.表1教态表
57.类别多标签类别教师行为播放幻灯片,书写板书,提问等教师手势描绘型手势,指向型手势,节拍型手势等教学环节集体讲授,个别指导,课堂管理等
58.表1中(仅为示例,包括但不限于此分类),将标签分为三类,每类包含三种教态动作,实际应用中可依据教研所关心的教态动作进行扩充与缩减类别。
59.根据本发明,提出一种多模态融合的教态分析系统,如图4所示,包括:预处理模块、识别模块、教态输出模块;其中,
60.预处理模块,用于接收并预处理时间同步的音频信号与视频信号;
61.识别模块,包括空间流模型、动作流模型、音频流模型和语义流模型,用于接收音频信号和视频信号预处理后的结果,并生成分类分数矩阵;
62.教态输出模块,用于接收分类分数矩阵,通过多模态多标签分类器输出教态信息。
63.在预处理模块中包括音频处理单元和视频处理单元。其中,音频处理单元用于对音频信号进行预处理,获得声纹图序列,以及通过语义识别,获得音频的语义信息;具体步骤为:(1)获取音频片段,可以调用开放接口完成,例如科大讯飞的离线语音转写功能中便包括了声纹区分功能,包括依据说话断句位置,对连续音频文件进行切割,仅保留教师说话的片段;(2)依据音频片段,对语音内容进行识别,可以使用开放接口完成此操作,例如科大讯飞的离线语音转写接口,得到每段语音的转写内容;(3)对音频片段提取单声道信息(由
于不考虑声音的空间信息),利用短时傅里叶变换(stft)将1

d音频转为2

d的声纹图,将声纹图保存为声纹图序列[t,x,y],x与y为声纹坐标,t为时间,单位ms。
[0064]
视频处理单元用于对视频信息进行预处理,获得视频的空间流序列和光流序列,具体步骤为:(1)由于课堂上,教师授课主要以说话为主,引导动作为辅助,因此将语音的分割与保留规则(即保留含教师说话的片段,从而与音频内容同步)作用于视频,得到视频片段,视频片段与音频片段的截取位置同步;(2)对于视频片段,按帧提取图片,组成空间流序列[f,x,y,c],f代表视频中帧的数量,x代表该帧图像的横坐标像素点位置,y代表该帧图像的纵坐标像素点位置,c代表rgb通道;(3)为有助于动作识别,采用光流代表动作移动,视频片段对连续的帧之间分别计算横向与纵向的光流,组成光流序列[2f,x,y],x与y代表光流向量,f代表帧,2代表横向光流与纵向光流。获取光流序列为现有技术,不再多叙。
[0065]
在识别模块中,数据流向如图5所示,具体描述如下。
[0066]
(1)空间流模型的输入为视频信号的空间流序列[f,x,y,c],对于每个视频片段,等间隔抽取固定帧数。空间流模型为lstm网络,其最后一层为sigmoid激活函数,损失函数为二值交叉熵损失函数,通过lstm网络对空间流序列进行特征提取(提取图片序列用于做多标签分类的特征,用于连续的图片序列识别),由于进行多标签分类,因此最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数,进行分类训练。空间流模型的输出为多标签的空间流模型分类分数矩阵,即[n,1]维向量,n为多标签类别的数量,向量中的值为该类别的预测概率。例如,将多维度的标签类别组成一个标签序列,如表1中所提出的例子,标签序列分别为[“播放幻灯片”,“书写板书”,“提问”,“描绘型手势”,“指向型手势”,“节拍型手势”,“集体讲授”,“个别指导”,“课堂管理”],每一类别均为one hot类别(即0或1表示),当多标签结果为“播放幻灯片”、“描绘型手势”、“集体讲授”,那么结果该模型的ground truth(真值,即用于片段分类的标签)则为[1,0,0,1,0,0,1,0,0]。该模型需要单独训练。
[0067]
(2)动作流模型的输入为视频信号的光流序列[2f,x,y],该模型与空间流模型的结构相同,通过lstm网络对图片序列进行特征提取,lstm网络的最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数,进行分类训练。该模型的输出为多标签的动作流分类分数矩阵,即[n,1]维向量,n为多标签类别的数量,向量中的值代表为该类别的概率。该模型需要单独训练。
[0068]
(3)音频流模型的输入为音频信号的声纹图序列[t,x,y],其模型结构与前两个模型一样,通过lstm网络对声纹序列进行特征提取,由于进行多标签分类,网络的最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数,进行分类训练。该模型的输出为多标签的音频流模型分类分数矩阵,即[n,1]维向量,n为多标签类别的数量,向量中的值代表为该类别的概率。该模型需要单独训练。
[0069]
(4)语义流模型的输入为音频信号语音转写得到的转写内容(即文字),对文字进行嵌入操作,该模型为双向lstm网络,用于对文本进行特征提取,由于进行多标签分类,最后一层采用sigmoid激活函数后,利用二值交叉熵损失函数作为损失函数,该模型的输出为多标签的语义流模型分类分数矩阵,即[n,1]维向量,n为多标签类别的数量,向量中的值代表为该类别的概率。该模型需要单独训练。
[0070]
上述模型的训练方法是现有技术,不再多述。
[0071]
在教态识别模块中,接收空间流模型、动作流模型、音频流模型、语义流模型输出的分数矩阵,分别表示为s1、s2、s3、s4。由于语音声纹信息所能提供的环境信息有限,在教态应用中发挥的作用有限,因此调整其权重并与语义流模型分类分数矩阵进行初步融合。教态识别模块具体包括语音融合单元和多模态多标签分类器,如图6所示。其中,语音融合单元,用于将s3与s4分类加权求和并归一化后得到语音融合分数矩阵s5;多模态多标签分类器,用于接收s1、s2与s5并将其组合成分数矩阵,矩阵维度为[3,n],n代表多标签类别数,分类器包括顺次连接的分类分数融合卷积层和sigmoid激活函数,卷积层输出的矩阵维度为[n,1],经过sigmoid激活函数,然后将其输出结果转化为[0,1]的范围内(即归一化),代表对每个标签的类别预测概率,也即分类器输出的结果,其中卷积层的损失函数采用二值交叉熵损失函数。
[0072]
在训练好空间流模型、动作流模型、音频流模型、语义流模型后,先训练获取语音融合单元中s3的权重,再训练获取分类器中卷积层的参数。
[0073]
在语音融合单元中,s3代表音频流输出的分类预测分数,s4代表语义流输出的分类预测分数,因此s3与s4加权的权重可针对不同分类类别分别进行加权,该权重由关键词损失函数训练得到。关键词损失函数为本发明的独特设计,能避免语义流分类中通过记住关键词将某类别分错,若音频流中结果正确,则尽量利用音频流中结果辅助纠正分类结果。通过判断关键词是否错误引导语义信息的类别分析,将语义信息的分类结果与语音声纹图的分类结果进行分类加权融合,从而利用关键词损失函数学习语义信息与语音声纹图分类结果的使用权重。关键词损失函数是基于二值交叉熵损失函数(bce loss)的在当前场景下的改进,即利用了语义的先验知识,人为辅助矫正模型由于过拟合于关键词导致的错分问题,利用语音环境分类结果进行辅助,一定程度上改善分类结果。具体步骤如下:
[0074]
a.获取关键词列表:将音频信号语音转写的文字内容依据不同的多标签分类类别进行词云分析,得到每个类别的高频词汇(即该类别的关键词),如不同类别的关键词有重复则直接剔除,即仅保留各个类别的特色关键词汇。
[0075]
b.将训练数据经过音频预处理后的结果输入音频流模型与语义流模型得到s3和s4,遍历每个多标签类别i(i取1~n,n为多标签类别的数量),并做如下判断:
[0076]
1)当输入语义流模型的文字包括多类别标签的关键词,且关键词的类别为所述文字的正确类别,则ap
i
=1,y
i
=1;
[0077]
2)当输入语义流模型的文字包括多类别标签的关键词,且关键词的类别不是所述文字的正确类别,则ap
i
=1,y
i
=0;
[0078]
3)当输入语义流模型的文字不包含多类别标签的关键词,且所述多标签类别为所述文字的正确类别,则ap
i
=0,y
i
=1;
[0079]
4)当输入语义流模型的文字不包含多类别标签的关键词,且所述多标签类别不是所述文字的正确类别,则ap
i
=0,y
i
=0。
[0080]
c.设置s3的权重初值w0(权重为n
×
n维矩阵,n为多标签类别的数量),计算融合后的多标签分类序列s5=w0·
s3+s4(w0与s3为点乘)。
[0081]
d.然后将s5与真值序列(训练数据自身携带分类结果)进行比较,利用关键词损失函数计算本轮训练的损失值,进而调整权重。
[0082]
其中,关键词损失函数表达为,
[0083]
l
i


y
i
×
log(x
i
)

(1

y
i
)
×
log(1

x
i
)+ap
i
×
(ap
i

y
i
)log(x
i
),
[0084]
其中i表示多标签类别,l
i
为该多标签类别损失值,y
i
为该多标签类别真实值,x
i
为该多标签类别预测值,ap
i
为该多标签类别关键词出现与否(0或1表示)。
[0085]
在一个实施例中,当语义流转写为“我们来仔细看一下这里”,且正确分类仅为“个别指导”时,仅凭借语义流信息,模型分类可能会混淆“个别指导”、“集体讲授”与“播放幻灯片”三个分类,s4语义流的分类结果在“个别指导”、“集体讲授”与“播放幻灯片”三个分类上的预测分值均会较高。但s3音频流更注重环境的影响,由于教师个别指导的音量较小,因此较容易分辨为“个别指导”,s3音频流的分类结果则会在“个别指导”类别上的预测分值较高。同时,“仔细看”通常包含在“播放幻灯片”类别的高频词汇中,因此ap
i
=1,y
i
=0,即步骤b中的情况(2),此时损失函数的表达为l
i


log(1

x
i
)+log(x
i
),相比bce loss,该损失值更大,融合权重在此类分类中会更倾向于音频流的识别结果,更有利于提升这类结果识别的准确性。
[0086]
e.重复步骤b、c和d直到损失函数收敛,最终训练得到一个最佳融合权重w。
[0087]
训练分类器的步骤包括:将训练数据中的音频和视频预处理后,将结果分别输入空间流模型、动作流模型、音频流模型、语义流模型,得到s1、s2、s3、s4,然后将s3、s4通过语音融合单元得到s5,进而将s1、s2、s5输入多模态多标签分类器,通过其输出与训练数据自带的分类结果进行比较,从而调整卷积层的参数。
[0088]
在一个实施例中,系统还可以包括:表请识别模块,用于从图像维度对表情进行识别。由于表情为瞬时的表现,因此可每间隔3帧抽取一帧图像进行表情识别,首先利用检测模型检测到人脸位置,剪切人脸所在区域后检测人脸上用于定位的68个关键点信息,进而送入cnn模型结构进行表情分类,分为:积极表情,中性表情,消极表情。其中人脸关键点模型是现有的,例如可以使用dlib,表情分类模型需要自行训练。表情识别也可调用第三方接口,例如:旷世face++的表情识别接口(由于这个接口返回的情绪内容较为丰富,无法直接适用于教态场景,因此人为将不同表情归类为积极表情、中性表情、消极表情三类,积极表情包括“开心”、“惊讶”,中性表情包括“生气”、“沮丧”、“担忧”、“悲伤”,中性表情包括“自然”)。
[0089]
在一个实施例中,系统还包括分析模块,用于将教态信息转化为呈现给用户的图表或文字。在分析模块中,结合以上识别到情绪表情、教授内容(即语音处理单元得到的转写内容)及复合型教态识别结果,以图表形式可视化呈现,辅助教研人员进行心态、体态、文态、语态的教态分析。内容包括:
[0090]
(1)表情分布图,以饼状图形式呈现,可直观显示积极、中性、消极表情,同时包括以时间轴为横坐标的时间分布图。
[0091]
(2)复合型教态图,依据不同类别维度,将多标签识别内容(横坐标位置为每段视频在整堂课中出现的时间点)以甘特图的形式呈现,以时间轴为横坐标。
[0092]
(3)多模态分析图,分别依据音频中教师讲授的时间点(作为听觉通路)、视频中识别到复合型教态中的教师行为或手势出现的时间点,分析在时间维度上的分布,统计采用的模态数量,包括:听觉、视觉两通路,并计算听觉与视觉模态发生比(即两者出现时长的比例)。依据双通路理论,视觉与听觉双通路教学方式,在本场景中即在讲授的过程中有教态动作辅助,有助于学生理解教师讲授的内容。
[0093]
(4)语言情绪分析图,依据教学中常见的正负性关键词,对教师语言情绪进行关键词检索与统计,积极情绪关键词包括:“非常好”,“很好”,“很棒”,“非常棒”,“特别好”,“好极了”,“太好了”,“太棒了”等,消极情绪关键词包括:“再想想”,“不准确”,“不够准确”,“不太好”等。以面积图形式呈现,以时间轴为横坐标,积极、消极情绪分别用正负值标注在纵坐标上。
[0094]
通过本发明,可以对复合型教态进行识别,有效补充单独视频信息(仅图像)中缺失的语义信息,以及单独语音信息(仅音频)中缺失的动作信息,可以更为立体全面的描述教师的教态信息,可得到行为、手势上具象、抽象的教态信息。
[0095]
本发明结合音频中的声纹信息与语义信息,针对情绪环境及语义两个方面获取有效信息,最大化利用音频中的信息。本发明提出了关键词损失函数,通过判断关键词是否错误引导语义信息的类别分析,将语义信息的分类结果与语音声纹图的分类结果进行分类加权融合,利用关键词损失函数学习语义信息与语音声纹图分类结果的使用权重。通过训练新卷积层及设置新损失函数,得到最优的融合方式。
[0096]
本发明搭建了一个较为完善的教态分析系统,将视频、音频通过空间流、动作流、音频流、语义流分别进行分类后,进行分类分数融合,分类结果不局限于单纯的底层动作(例如:“表扬手势”,“点头”等),而是增加了利用复合型教态识别模型实现的上层含有复杂语境信息的分类(例如:“播放幻灯片”、“描绘型手势”、“集体讲授”)。
[0097]
本发明未详细阐述的部分属于本领域公知技术。
[0098]
以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应的技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1