一种基于面部特征的人机交互设备及系统的制作方法

文档序号:27609878发布日期:2021-11-26 22:24阅读:106来源:国知局
一种基于面部特征的人机交互设备及系统的制作方法

1.本发明涉及人机交互技术领域,具体而言,涉及一种基于面部特征的人机交互设备及系统。


背景技术:

2.在书法教育过程中,身体状态包括持笔姿势,手部动作,身体姿态等。心理状态变化有注意力焦点转移,学习兴趣波动,学习节奏打断等。传统书法信息化教学过程中,学员可以一边看教学视频一边练习书法,而在观看教学视频时,可能需要学员操作播放教学视频的设备,从而可能改变学员的身体状态或心理状态,身体和心理变化构成了学生学习过程中的重大障碍。
3.现有控制播放设备的方法有手动点击和语音控制两种方法。手动点击是指用手指点击移动端界面上的按钮来控制播放、暂停、快进和后退等。语音控制方法是用语音识别系统,将语音信号变成控制信号,控制视频播放、暂停、快进和后退等。
4.手动点击控制方法,需要学习者放下笔,改变写字姿态,并且导致写字心态波动。语音进行控制播放暂停,需要学习者从静态转到说话的动态,会对心理状态有影响,且语音识别容易产生歧义,且不适用于多人同时学习场景。


技术实现要素:

5.为解决上述问题,本发明实施例的目的在于提供一种基于面部特征的人机交互设备及系统。
6.第一方面,本发明实施例提供了一种基于面部特征的人机交互设备,包括:图像采集装置、处理器和显示屏,所述图像采集装置和所述显示屏分别与所述处理器相连;
7.所述显示屏用于播放预设视频;
8.所述图像采集装置用于在所述显示屏播放所述预设视频时,连续采集用户图像,并将所述用户图像发送至所述处理器;
9.所述处理器用于依次提取出每个所述用户图像中的用户人脸图像;提取每个所述用户人脸图像中的面部特征信息;根据多个所述用户人脸图像的面部特征信息的变化值以及采集到所述用户人脸图像之间的时间间隔确定用户的位姿变化信息,所述位姿变化信息包括角度变化值和角速度变化值;根据所述位姿变化信息生成相应的控制指令,根据所述控制指令对所述预设视频执行相应的控制操作,并将控制操作后的预设视频发送时作数显示屏;
10.所述显示屏还用于播放控制操作后的预设视频。
11.第二方面,本发明实施例还提供了一种基于面部特征的人机交互系统,包括:多个如上所述的人机交互设备。
12.本发明实施例上述第一方面提供的方案中,通过检测人体面部生物特征和其运动姿态,判断用户人脸当前的运动状态,进而可以发出暂停或播放等控制信号,实现通过人脸
运动对视频播放控制。该交互方式简答,不需要用户大幅度移动身体,可以避免传统方法对书写状态的破坏,并且容易使学生保持学习心态的连续性。本技术提供的交互方式对于书法教育的信息化过程提供基础性的促进作用,具有重要的现实价值。
13.为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
14.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
15.图1示出了本发明实施例所提供的一种基于面部特征的人机交互设备的第一结构示意图;
16.图2示出了本发明实施例所提供的提取出的人脸特征点的示意图;
17.图3示出了本发明实施例所提供的一种基于面部特征的人机交互设备的第二结构示意图;
18.图4示出了本发明实施例所提供的人脸特征点的主视示意图;
19.图5示出了本发明实施例所提供的人脸特征点的俯视示意图;
20.图6示出了本发明实施例所提供的头部运动姿态的示意图;
21.图7示出了本发明实施例所提供的一种基于面部特征的人机交互系统的结构示意图。
具体实施方式
22.在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
23.此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
24.在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
25.本发明实施例提供的一种基于面部特征的人机交互设备,参见图1所示,包括:图像采集装置10、处理器20和显示屏30,图像采集装置10和显示屏30分别与处理器20相连。
26.其中,显示屏30用于播放预设视频;图像采集装置10用于在显示屏播放预设视频时,连续采集用户图像,并将用户图像发送至处理器20。
27.处理器20用于依次提取出每个用户图像中的用户人脸图像;提取每个用户人脸图像中的面部特征信息;根据多个用户人脸图像的面部特征信息的变化值以及采集到用户人脸图像之间的时间间隔确定用户的位姿变化信息,位姿变化信息包括角度变化值和角速度变化值;根据位姿变化信息生成相应的控制指令,根据控制指令对预设视频执行相应的控制操作,并将控制操作后的预设视频发送时作数显示屏30;
28.显示屏30还用于播放控制操作后的预设视频。
29.本发明实施例中,预设视频指的是用户当前需要观看的视频,比如用户在练习书法时所需要观看的教学视频等。在通过某个设备播放该预设视频时,可以通过摄像头等器件采集设备前方用户的用户图像。该设备具体可以为智能手机、平板电脑、计算机等,本实施例对此不做限定。在获取到用户图像后,通过人脸检测技术即可提取出用户图像中的用户人脸图像。
30.一般来说,由于光照、拍摄角度等原因,会使用户图像存在过度曝光、不合理的对比度及扭曲等现象,同时由摄像头或者相机获得的图像背景还有可能具有很严重的污染噪声,因此存在失真、污染、断裂、模糊、扭曲等各种不利因素,而这些因素会影响后续特征提取的正确率。可选的,本实施例还包括对用户图像进行预处理的过程,通过预处理去除背景干扰和噪声以获得良好的识别率,可以提高后续特征提取的准确性。用户图像的预处理主要采用以下几个环节:图像的灰度增强、滤波、形态学处理及自适应二值化等。在对用户图像进行预处理后即可提取出预处理后的用户图像中的用户人脸图像。
31.此外,本实施例中可通过人脸检测网络提取用户图像中的用户人脸图像。具体的,该人脸检测网络是一个总计16层的卷积神经网络,由1个卷积层、12个inception层、3个池化层和1个全连接层组成。网络输入为256
×
256像素大小的用户图像,输出是一个256维的特征向量,其中包含已提取的人脸特征信息。
32.网络的前端部分由卷积层和池化层组成,这部分结构的功能用以提取用户图像最基本的点、线、交点等低级特征。网络的主体部分由12个inception层和2个池化层组成。从网络设计的角度分析,这14层结构负责从简单到复杂对前端输入进行排列组合,在网络训练的过程中学习能描述人脸差异的结构化特征,最终压缩至1024维特征向量。网络的输出端由全连接层构成,该层结构将输入的1024维特征向量压缩到256维进行输出。这种设计能随机屏蔽1024维向量到256维向量之间的连接,减轻网络训练时产生的过拟合现象,并最终提取出用户人脸图像。
33.本发明实施例中,面部特征信息包括从用户人脸图像中提取的特征点,或者与特征点相关的信息,比如特征点的坐标值等。其中,人脸的特征点指的是人脸的外轮廓以及五官附近的关键点,包括眉毛的外轮廓,眼睛的上下轮廓,鼻子的中线,嘴唇的上下轮廓等。如图2所示。使用人脸特征识别算法能够从用户人脸图像中定位出多个特征点,并可确定每个特征点的坐标,该坐标包含了整个人脸的姿态信息。图2中以定位出68个特征点(从0~67)为例说明。
34.本发明实施例中会连续采集多个用户图像,即可以连续获取到多个用户人脸图像,通过不同用户人脸图像的不同的面部特征信息,可以确定面部特征信息之间的变化值;
同时,获取到不同用户图像之间存在时间间隔,基于该变化值以及时间间隔即可确定速度变化值。同时,本实施例中将与角度相关的信息作为位姿变化信息,以该位姿变化信息来描述用户的头部转动情况。
35.本发明实施例中,通过位姿变化信息来表征用户头部的转动情况,进而可以生产与该位姿变化信息相对应的控制指令。例如,用户头部左转则生成快退指令,用户头部右转则生成快进指令,用户头部向上转动则生成暂停指令等。在声称该控制指令后即可控制该预设视频的播放情况,比如快进播放等。
36.本发明实施例提供的一种基于面部特征的人机交互设备,通过检测人体面部生物特征和其运动姿态,判断用户人脸当前的运动状态,进而可以发出暂停或播放等控制信号,实现通过人脸运动对视频播放控制。该交互方式简答,不需要用户大幅度移动身体,可以避免传统方法对书写状态的破坏,并且容易使学生保持学习心态的连续性。本技术提供的交互方式对于书法教育的信息化过程提供基础性的促进作用,具有重要的现实价值。
37.在上述实施例的基础上,参见图3所示,该基于面部特征的人机交互设备还包括:存储器40,存储器40与处理器20相连;存储器40用于存储预设视频,并在需要播放预设视频时将预设视频发送至处理器20,处理器20指示显示屏30播放预设视频。
38.在上述实施例的基础上,参见图3所示,该基于面部特征的人机交互设备还包括:通讯装置50,通讯装置50与处理器20相连;通讯装置50用于获取预设视频,并将预设视频发送至处理器20,处理器20指示显示屏30播放预设视频。
39.本发明实施例中,预设视频可以预先存储在存储器中,也可以通过通讯装置远程获取,本实施例对此不做限定。
40.在上述实施例的基础上,处理器20提取每个用户人脸图像中的面部特征信息,包括:提取用户人脸图像中的特征点,依次将特征点邻域内预设大小的图片与训练好的人脸五官滤波器进行相似性检测;基于相机内参设置统一的坐标系,确定通过相似性检测的特征点在坐标系下的坐标值,坐标值为面部特征信息中的一项信息。
41.本发明实施例中,预先使用带标注的人脸五官样本集进行训练,训练完成后每一组参数都代表一个特定的小片滤波器,即人脸五官滤波器,比如眼睛滤波器、嘴巴滤波器等。通过训练好人脸五官滤波器,能对某特征点坐标邻域内的一小块图片进行相似性检测。例如,眼睛特征点附近采样的图片使用眼睛的小片模型进行检测,嘴巴特征点附近采样的图片使用嘴巴的小片模型进行检测。其中,可采用asm算法得到用户人脸图像中的特征点。
42.同时,用户采集用户图像的相机具有特定的相机内参,该相机内参是固定的,基于该相机内参可以设置坐标系,比如世界坐标系。在特征点通过相似性检测时,说明该特征点是有效的特征点,可以作为后续处理过程的参考,故此时可以确定该特征点的坐标值,以方便后续位姿参数的计算。
43.在上述实施例的基础上,图像采集装置10具体可以为相机,若相机可以采集三维的人脸图像,则根据人脸特征点的三维坐标的变化可以方便确定头部转动情况。但是由于一般设备的相机只能采集二维的平面图像,即相机采集的用户人脸图像不具有深度信息,此时利用二维的平面图像来确定头部转动时需要大量处理过程,会降低处理效率。本实施例中通过选取部分特征点的方式来确定用户头部转动情况,具体的,面部特征信息包括特征点的坐标值,处理器20确定用户的位姿变化信息包括:
44.步骤a1:预先从用户的特征点中选取至少四个标准特征点s
a
,s
b
,s
c
,s
d
;其中,在标准人脸图像中,标准特征点s
a
与s
b
之间的线段与标准特征点s
c
与s
d
之间的线段之间的夹角与90度之间的差值小于预设值。
45.本发明实施例中,预先确定至少四个特征点,即四个标准特征点,该四个特征点中两个特征点s
a
与s
b
之间的线段与特征点s
c
与s
d
之间的线段之间的夹角与90度之间的差值小于预设值,即两个线段之间的夹角近似为90度。
46.具体的,人脸中某些特征点的位置是基本固定的,例如眼睛的位置等;同时,若平面内存在相互垂直的两条线段,在三维空间中,该两条线段围绕某些特定的轴旋转才可以使得该两条线段投影到该平面上的线段仍然是垂直的。用户人脸图像是二维图像,通过选取垂直的四个特征点可以正确识别出用户头部围绕某些特定的轴旋转的位姿变化。例如,如图2所示,四个标准特征点依次是左眼最左侧的特征点36、右眼最右侧的特征点45、鼻尖的特征点33、下巴的特征点8。图4示出了四个标准特征点的位置示意图,四个标准特征点s
a
,s
b
,s
c
,s
d
分别为图4中的a、b、c、d,ab与cd之间的夹角θ大约为90度。
47.需要说明的是,步骤a1中确定四个标准特征点的过程为预先执行的过程,即不需要在采集到用户人脸图像后才确定该四个标准特征点。
48.步骤a2:确定面部特征信息中与四个标准特征点分别对应的四个特征点f
a
,f
b
,f
c
,f
d
,依次确定每个用户人脸图像中特征点f
a
与f
b
之间的距离、特征点f
c
与f
d
之间的距离,并确定特征点f
a
与f
b
之间的最大距离值特征点f
c
与f
d
之间的最大距离值
49.本发明实施例中,为了统一确定角度的基准,将特征点之间最大距离值作为基准。具体的,在不考虑用户人脸与相机之间的距离时,当用户人脸所在平面与相机所采集的平面平行时,特征点之间的距离最大;当用户人脸发生偏移时,则特征点之间的距离会减小,通过特征点之间距离以及最大距离值即可确定可以表征头部姿态的角度。
50.步骤a3:确定用户人脸图像对应的第一角度和第二角度:
51.其中,i∈[1,n],n为用户人脸图像的数量,y
i
表示第i个用户人脸图像的第一角度,p
i
表示第i个用户人脸图像的第二角度,表示在第i个用户人脸图像中特征点f
a
与f
b
之间的距离,表示在第i个用户人脸图像中特征点f
c
与f
d
之间的距离。
[0052]
本发明实施例中,用户人脸图像两个特征点之间的线段可以认为是最大距离线段所在平面的投影,故第一角度为具体的,为了方便说明,图4表示人脸的正视图,图4中的四个特征点a、b、c、d(对应用户人脸图像中的四个特征点f
a
,f
b
,f
c
,f
d
)处于同一个平面,且图4中的人脸对应特征点之间距离最大的情况,即图4中ab之间的距离为cd之间的距离为此外,参见图5所示,图5表示人脸的俯视图,图5中的线段ab表示图4中四个特征点a、b、c、d所在的平面,且在图5中ab的距离仍为在实际情况下,以相机作为参考物,若用户的头部在左右方向上发生了偏转(即用户向左或向右摇头),即在
真实的世界坐标系下,用户头部的特征点a和b此时位于a1位置和b1位置,在不考虑用户头部上下方向旋转(即用户没有点头或抬头)的情况下,图5中线段a1b1的距离仍然是但是由于相机只能采集到二维的图像,即相机采集到的用户人脸图像中,特征点a和b映射到了ai和bi处,对于采集的第i个用户人脸图像来说,ai和bi是该用户人脸图像中特征点的位置,即线段aibi之间的距离即为特征点f
a
与f
b
之间的距离故此时用户在左右方向上所偏转的角度为同理,可以确定用户在上下方向上偏转的角度为
[0053]
步骤a4:确定第i个与第j个用户人脸图像之间的第一角度变化值δy、第二角度变化值δp、第一角速度变化值δω
y
、第二角速度变化值δω
p

[0054]
δy=y
i-y
j
,δp=p
i-p
j
,其中,δt
ij
表示采集到第i个用户人脸图像与第j个用户人脸图像之间的时间间隔。
[0055]
本发明实施例中,每个用户人脸图像均可以确定其本本身的角度,即第j个用户人脸图像的第一角度为y
j
,第二角度为p
j
;通过两个用户人脸图像(比如相邻的两帧用户人脸图像)的角度值确定角度变化值,并根据时间间隔可以确定角速度变化值。
[0056]
步骤a5:确定第i个与第j个用户人脸图像之间的第一角度变化方向和第二角度变化方向
[0057][0058][0059]
其中,四个特征点f
a
,f
b
,f
c
,f
d
在第i个用户人脸图像中的坐标分别为(xi
a
,yi
a
)、(xi
b
,yi
b
)、(xi
c
,yi
c
)、(xi
d
,yi
d
);特征点f
a
,f
b
,f
c
,f
d
在第j个用户人脸图像中的坐标分别为(xj
a
,yj
a
)、(xj
b
,j
b
)、(xj
c
,yj
c
)、(xj
d
,yj
d
)。
[0060]
本发明实施例中,在上述步骤a4中可以确定角度变化值,即可以确定用户头部发生了左右旋转或上下旋转,但是不能区分是向左旋转还是向右旋转,本实施例中利用特征点的坐标值的变化来确定旋转方向。具体的,如图6所示,人体头部旋转时,头部运动姿态可以看做头部在三维空间中的六个方向的运动,包括头部上、下、左、右、前、后六个方向以及上下左右四个方向和前后两个方向间的各种组合姿态。欧拉角在一个固定的坐标系下描述刚体运动的三个角度取向,任意方向都可以通过偏航角(yaw)、俯仰角(pitch)、滚转角(roll)三个角度的组合来表达,它能精确表达头部旋转角度。如图6所示,偏航角是指头部的左右旋转产生的角度;俯仰角是指头部的上下旋转产生的角度;滚转角是指在平面内旋转产生的角度。基于人体的特点,头部在发生偏转时是基于颈部运动的,即头部旋转时的旋转轴位于颈部处,故当头部旋转时,人脸的特征点整体也会发生位移。例如,在颈部作用下
头部向右转动时,用户人脸图像中的四个特征点f
a
,f
b
,f
c
,f
d
整体也会向右移动,本实施例中基于该特点确定头部的旋转方向。
[0061]
具体的,先采集到第j个用户人脸图像,后采集到第i个用户人脸图像,即采集到第j个用户人脸图像的时间先于采集到第i个用户人脸图像的时间。在确定第一角度变化方向时,第j个用户人脸图像中特征点f
a
和f
b
的坐标分别为(xj
a
,yj
a
)、(xj
b
,j
b
);之后,在第i个用户人脸图像中,特征点f
a
和f
b
的坐标分别为(xi
a
,yi
a
)、(xi
b
,yi
b
),即特征点f
a
从(xj
a
,yj
a
)移动到了(xi
a
,yi
a
),其移动向量为同理,特征点f
b
从(xj
b
,j
b
)移动到了(xi
b
,yi
b
),同样的,其移动向量为则特征点f
a
和f
b
整体的移动向量即:
[0062][0063]
同理,在发生上下旋转时,对于特征点f
c
,f
d
,第二角度变化方向为:
[0064]
本发明实施例中,基于头部旋转的特点,利用二维的用户人脸图像即可确定两个用户人脸图像之间的角度变化值、角速度变化值以及角度变化方向等位姿变化信息,从而可以确定用户头部的旋转位移、旋转速度、旋转方向,进而方便后续生成与用户旋转姿态相一致的控制指令。
[0065]
在上述实施例的基础上,上述确定位姿变化信息的过程需要用户人脸与相机之间的距离基本保持一致,若用户人脸与相机之间的距离发生变化,则可能导致确定的位姿变化信息不准确。故本实施例中,处理器20根据位姿变化信息生成相应的控制指令包括:
[0066]
步骤b1:在第二角度变化值δp小于第一预设阈值且第一角度变化值δy大于第二预设阈值时,根据第一角度变化值δy、第一角速度变化值δω
y
和第一角度变化方向生成相应的控制指令。
[0067]
步骤b2:在第一角度变化值δy小于第一预设阈值且第二角度变化值δp大于第二预设阈值时,根据第二角度变化值δp、第二角速度变化值δω
p
和第二角度变化方向生成相应的控制指令。
[0068]
本发明实施例中,当第二角度变化值δp小于第一预设阈值时,由于在当前时间段最大距离值是固定的,故说明两个用户人脸图像之间特征点f
c
与f
d
之间的距离变化不大,此时基本可以认为用户人脸与相机之间的距离基本保持一致,且用户头部在特征点f
c
与f
d
方向(比如上下旋转方向)上几乎没有旋转。同时,若第一角度变化值δy大于第二预设阈值,则说明用户头部在特征点f
a
与f
b
方向(比如左右旋转方向)上有较大的旋转,此时即可确定用户头部在f
a
与f
b
方向上发生了旋转,之后即可根据第一角度变化值δy、第一角速度变化值δω
y
和第一角度变化方向生成相应的控制指令。例如,根据第一角度变化方向可以确定用户头部为向右旋转,根据第一角度变化值δy以及第一角速度变化值δω
y
的大小可以确定用户头部旋转的幅度足够大,此时则可生成与用户头部向右旋转对应的控制指令,比如快进指令。
[0069]
同理,在步骤b2中,当第一角度变化值δy小于第一预设阈值且第二角度变化值δp大于第二预设阈值时,也可生成其他相应的控制指令,比如用户头部向下旋转(即点头时)生成用于播放视频的控制指令。
[0070]
本发明实施例提供的一种基于面部特征的人机交互设备,通过检测人体面部生物特征和其运动姿态,判断用户人脸当前的运动状态,进而可以发出暂停或播放等控制信号,实现通过人脸运动对视频播放控制。该交互方式简答,不需要用户大幅度移动身体,可以避免传统方法对书写状态的破坏,并且容易使学生保持学习心态的连续性。本技术提供的交互方式对于书法教育的信息化过程提供基础性的促进作用,具有重要的现实价值。同时,利用二维的用户人脸图像即可确定两个用户人脸图像之间的角度变化值、角速度变化值以及角度变化方向等位姿变化信息,从而可以确定用户头部的旋转位移、旋转速度、旋转方向,进而方便后续生成与用户旋转姿态相一致的控制指令。
[0071]
基于同样的发明构思,本发明实施例还提供一种基于面部特征的人机交互系统,参见图7所示,该系统包括:多个分离设置的如上述的人机交互设备1,图7中以包含三台人机交互设备1为例说明。
[0072]
本发明实施例中,人机交互设备1可以为信息化教育环境中所使用的设备,比如课堂上所用的智能设备(比如智能手机、平板电脑)等,也可以是预先固定安装在预设位置处的设备,用户坐在该人机交互设备1前即可观看该设备1播放的视频,且用户通过头部运动即可方便地对人机交互设备1播放的视频进行控制操作。
[0073]
可选的,参见图7所示,该系统还包括:上位机2;人机交互设备1还包括通讯装置50。
[0074]
上位机2通过通讯装置50与人机交互设备1相连,用于将预设视频发送至人机交互设备1,指示人机交互设备1播放预设视频。
[0075]
本发明实施例提供的一种基于面部特征的人机交互系统,通过检测人体面部生物特征和其运动姿态,判断用户人脸当前的运动状态,进而可以发出暂停或播放等控制信号,实现通过人脸运动对视频播放控制。该交互方式简答,不需要用户大幅度移动身体,可以避免传统方法对书写状态的破坏,并且容易使学生保持学习心态的连续性。本技术提供的交互方式对于书法教育的信息化过程提供基础性的促进作用,具有重要的现实价值。同时,利用二维的用户人脸图像即可确定两个用户人脸图像之间的角度变化值、角速度变化值以及角度变化方向等位姿变化信息,从而可以确定用户头部的旋转位移、旋转速度、旋转方向,进而方便后续生成与用户旋转姿态相一致的控制指令。
[0076]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1