1.本发明涉及人工智能技术领域,具体涉及一种智能终端的输入方法、智能终端及计算机可读存储介质。
背景技术:2.人机交互技术(human-computer interaction techniques)是指通过计算机输入、输出设备,以有效的方式实现人与计算机对话的技术。人机交互技术包括机器通过输出或显示设备给人提供大量有关信息及提示请示等,人通过输入设备给机器输入有关信息、回答问题及提示请示等。传统的人机交互模式为接触式交互,如通过键盘、鼠标、触摸屏等进行输入交互。而新型的交互模式,如语音交互、手势交互等,识别精度不高,用户体验较差。
技术实现要素:3.本发明正是基于上述问题,提出了一种智能终端的输入方法、智能终端及计算机可读存储介质,通过本发明的方案,不仅能在用自然语言进行人机交互时,提示用户作出解释行为,以对自然语言进行注释;还能依据人物画像,针对性地对用户的解释行为进行解读,保证最终对自然语言识别的高准确性,给用户带来贴心的体验。
4.有鉴于此,本发明的一方面提出了一种智能终端的输入方法,包括:
5.采集用户的视频数据;
6.根据所述视频数据确定所述用户的人物画像;
7.提示用户输入语音数据;
8.对所述语音数据进行识别,得到第一识别结果;
9.提示用户输入解释行为数据;
10.接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;
11.利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果。
12.可选地,所述解释行为数据为眼动数据;所述接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果的步骤,包括:
13.采集用户头部图像数据;
14.从所述头部图像数据中提取人脸数据;
15.根据所述人脸数据确定人眼区域,得到人眼图片;
16.从所述人眼图片中提取所述眼动数据,并对所述眼动数据进行处理,得到眼动特征数据;
17.根据预先设置的眼动识别模型对所述眼动特征数据进行处理,识别出眼动行为;
18.利用所述人物画像对所述眼动行为进行识别得到解释行为识别结果。
19.可选地,还包括建立所述眼动识别模型的步骤,具体是:
20.获取训练图像;
21.从所述训练图像中定位人脸,提取人眼图片;
22.对所述人眼图片进行归一化处理,得到训练用人眼图片;
23.将所述训练用人脸图片输入卷积神经网络进行训练,得到眼动识别模型。
24.可选地,在所述利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果的步骤之后,还包括:
25.根据所述眼动行为确定眼势交互数据;
26.根据眼势交互数据与交互指令之间的映射关系,确定所述眼势交互数据对应的第一交互指令;
27.根据所述第二识别结果,执行所述第一交互指令。
28.可选地,所述解释行为数据为手势数据;所述接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果的步骤,包括:
29.获取用户的肢体动作视频数据;
30.从所述肢体动作视频数据中提取图像序列;
31.从所述图像序列中提取手部区域;
32.利用预先配置的手势识别模型对所述手部区域进行手势识别,得到手势行为;
33.利用所述人物画像对所述手势行为进行识别得到解释行为识别结果。
34.可选地,所述从所述图像序列中提取手部区域的步骤,包括:
35.对所述图像序列进行背景分割处理,得到分割图像;
36.从所述分割图像中确定手部区域。
37.可选地,在所述利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果的步骤之后,包括:
38.根据所述手势行为确定手势交互数据;
39.根据手势交互数据与交互指令之间的映射关系,确定所述手势交互数据对应的第二交互指令;
40.根据所述第二识别结果,执行所述第二交互指令。
41.可选地,所述人物画像的构建过程包括:
42.获取所述用户的历史交流数据;
43.根据所述历史交流数据确定所述用户的多个交流对象;
44.从所述用户的多个交流对象中确定第一对象,并确定所述用户与所述第一对象之间的关系;
45.利用所述用户和所述第一对象各自的唯一的对象标识生成第一关系标签;
46.获取所述用户和所述第一对象之间的第一交流行为数据;
47.根据所述第一交流行为数据和所述第一关系标签,构建所述用户的角色画像;
48.重复前述操作,直至所述用户按所有所述交流对象建立了多个角色画像;
49.将多个所述角色画像进行融合,得到所述人物画像。
50.本发明的另一方面提供一种智能终端,包括:采集模块、控制模块、提示模块和识别模块;其中,
51.所述采集模块,用于采集用户的视频数据;
52.所述控制模块,用于根据所述视频数据确定所述用户的人物画像;
53.所述提示模块,用于提示用户输入语音数据;
54.所述识别模块,用于对所述语音数据进行识别,得到第一识别结果;
55.所述提示模块,还用于提示用户输入解释行为数据;
56.所述识别模块,还用于接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;
57.所述控制模块,还用于利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果。
58.本发明的第三方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如前述任一所述用于智能终端的输入方法。
59.采用本发明的技术方案,首先采集用户的视频数据,根据所述视频数据确定所述用户的人物画像;然后,提示用户输入语音数据,对所述语音数据进行识别,得到第一识别结果;提示用户输入解释行为数据;接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果,不仅能在用自然语言进行人机交互时,提示用户作出解释行为,以对自然语言进行注释;还能依据人物画像,针对性地对用户的解释行为进行解读,保证最终对自然语言识别的高准确性,给用户带来贴心的体验。
附图说明
60.图1是本发明一个实施例提供的智能终端的输入方法流程图;
61.图2是本发明另一个实施例中利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果的步骤的流程图;
62.图3是本发明另一个实施例中建立所述眼动识别模型的步骤的流程图;
63.图4是另一个实施例提供的在所述利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果的步骤之后包括的步骤的流程图;
64.图5是本发明一个实施例提供的智能终端的示意框图。
具体实施方式
65.为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本技术的实施例及实施例中的特征可以相互组合。
66.在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
67.本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没
有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
68.在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
69.下面参照图1至图5来描述根据本发明一些实施方式提供的一种智能终端的输入方法、智能终端及计算机可读存储介质。
70.如图1所示,本发明一个实施例提供一种智能终端的输入方法,包括:
71.采集用户的视频数据;
72.根据所述视频数据确定所述用户的人物画像;
73.提示用户输入语音数据;
74.对所述语音数据进行识别,得到第一识别结果;
75.提示用户输入解释行为数据;
76.接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;
77.利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果。
78.应当说明的是,本发明实施例提供的一种智能终端的输入方法可以应用的智能终端,可以是智能手机、电脑、智能电视等,还可以是对讲设备、机器人、门禁设备、智慧医疗设备和智能教学设备等。
79.在本发明的实施例中,所述对所述语音数据进行识别,得到第一识别结果的步骤,具体为:从所述语音数据中提取特征向量,利用训练好的声学模型、语音对照字典和训练好的语言模型对特征向量进行语音解码和字词识别得到识别后的文本信息/数据,得到第一识别结果。其中,所述声学模型的训练过程为:从现有的音频数据库中提供特征向量,输入神经网络进行声学模型训练得到声学模型。所述语言模型的训练过程为:从现有的文本数据库中提取文本样本数据,输入神经网络进行语言模型训练得到语言模型。
80.可以理解的是,在通过自然语音进行人机交互的过程中,因地方文化、教育背景、社会经历、专业领域、口音、生活习惯、所用语言等方面的差异,导致在人机交互过程中,存在机器无法理解/无法识别用户的自然语音或者错误解释用户的自然语言的状况。在本发明的实施例中,在用户输入语音数据后,调用语音识别算法对所述语音数据进行识别,得到第一识别结果;再通过文字、视频或语音的形式提示用户输入解释行为数据,然后利用人物画像来对所述解释行为数据进行识别(对于特定用户来说所述解释行为数据所代表的意义/意思),得到解释行为识别结果,再利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果,能有效解决前述存在于人机交互过程中的问题。
81.在本发明的实施例中,可以通过在所述智能终端上设置图像采集模块(如摄像头)和语音采集模块(如麦克风)来分别获取视频数据和语音数据,也可以通过通信网络从服务器或其他智能终端获取所述视频数据和所述语音数据。在采集所述视频数据和所述语音数据的过程中,同时将视频内容或语音内容发生场景的相关信息分别作为所述视频数据和所述语音数据的属性信息进行保存。
82.采用该实施例的技术方案,首先采集用户的视频数据,根据所述视频数据确定所述用户的人物画像;然后,提示用户输入语音数据,对所述语音数据进行识别,得到第一识别结果;提示用户输入解释行为数据;接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果,不仅能在用自然语言进行人机交互时,提示用户作出解释行为,以对自然语言进行注释;还能依据人物画像,针对性地对用户的解释行为进行解读,保证最终对自然语言识别的高准确性,给用户带来贴心的体验。
83.如图2所示,在本发明一些可能的实施方式中,所述解释行为数据为眼动数据;所述接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果的步骤,包括:
84.采集用户头部图像数据;
85.从所述头部图像数据中提取人脸数据;
86.根据所述人脸数据确定人眼区域,得到人眼图片;
87.从所述人眼图片中提取所述眼动数据,并对所述眼动数据进行处理,得到眼动特征数据;
88.根据预先设置的眼动识别模型对所述眼动特征数据进行处理,识别出眼动行为;
89.利用所述人物画像对所述眼动行为进行识别得到解释行为识别结果。
90.可以理解的是,本发明实施例通过摄像模块(如摄像头)采集用户头部图像数据,从所述头部图像数据中提取人脸数据,具体为:从所述视频数据的以帧为单位提取多个图片,将图片灰度化,依次将所有灰度化后的图片输入人脸分类器,得到人脸图片集;将人脸图片集中的图片压缩为像素值为64*64并灰度化处理得到待识别人脸图片集;将所述待识别人脸图片集输入已训练好的卷积神经网络,进行人脸识别,并提取人脸数据。得到所述人脸数据后,根据所述人脸数据确定人眼区域,得到人眼图片。再从所述人眼图片中提取所述眼动数据,并对所述眼动数据进行处理,得到眼动特征数据,具体包括:从所述人眼图片中以帧为单位提取图片,将相邻帧的各个像素的灰度、亮度或颜色等分成n(n为正整数)个等级,再针对每个等级统计像素数做成直方图比较,将直方图差值小于预设阈值的帧划为一组,融合为新的图像帧;分别提取新的图像帧的颜色特征、纹理特征和形状特征,从而提取出关键帧;从关键帧中提取动态特征得到眼动特征数据。
91.本实施例通过人脸识别技术,对采集到的用户头部图像数据进行识别与分析,提取出人眼图片,从所述人眼图片中提取所述眼动数据,并对所述眼动数据进行处理,得到眼动特征数据,根据预先设置的眼动识别模型对所述眼动特征数据进行处理,识别出眼动行为,再利用所述人物画像对所述眼动行为进行识别得到解释行为识别结果,通过眼势来对用户的自然语言进行解释,方便快捷,并且能保持高准确度,极大地提高用户体验。
92.如图3所示,在本发明一些可能的实施方式中,还包括建立所述眼动识别模型的步骤,具体是:
93.获取训练图像;
94.从所述训练图像中定位人脸,提取第一人眼图片;
95.对所述第一人眼图片进行归一化处理,得到训练用第一人眼图片;
96.将所述训练用第一人眼图片输入卷积神经网络进行训练,得到眼动识别模型。
97.可以理解的是,为了利用图片的相对空间关系来有效减少参数数量,以提高训练效果,本发明的实施例中,通过卷积神经网络来进行网络训练,本实施例中的卷积神经网络包含了 49个卷积层和一个全连接层,当然也可以根据实际需求设置不同的卷积神经网络结构,本发明对此不作限制。
98.首先对从服务器的图像数据库里获取的所述训练图像进行预处理,进行人脸定位并提取人脸图片,进一步识别并提取第一人眼图片,将第一人眼图片调整为预设标准像素尺寸(如 448*448像素尺寸),然后将调整尺寸后的第一人眼图片输入到前述卷积神经网络中进行训练,得到视线追踪模型。
99.如图4所示,在本发明一些可能的实施方式中,在所述利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果的步骤之后,还包括:
100.根据所述眼动行为确定眼势交互数据;
101.根据眼势交互数据与交互指令之间的映射关系,确定所述眼势交互数据对应的第一交互指令;
102.根据所述第二识别结果,执行所述第一交互指令。
103.在本发明的实施例中,根据所述眼动行为可以确定眼势交互数据,可以理解的是,在眼睛有意识的扫视过程中,注视点形成的轨迹即为眼势。根据行程可以将眼势分为单步长眼势和多步长眼势。单步长眼势是指单程的扫视,视线从一个活动区域跳至另一个活动区域。多步长眼势指具有多个行程的眼势,视线在多个(不少于3个)活动区域中跳跃。可以将视线出发的区域称为起始域,视线到达的区域称为终点域,在移动过程中发生轨迹转折的区域称为转折域。根据视线的运动方向(角度)可将单步长眼势分为:垂直扫视运动(由上至下、由下至上)、由水平扫视运动(左到右、由右到左)、斜对角扫视运动(由左上到右下、由右下到左上、由左下到右上和由右上到左下)。还可以根据注视点轨迹的长度将眼势分为短距离眼势和长距离眼势。通过对眼势进行划分分类,有利于明确各个眼势动作的所代表的操作含义。
104.本发明的实施例,通过从所述眼动行为中确定眼势交互数据,再根据眼势与操作指令之间的映射关系,确定所述眼势交互数据对应的第一交互指令,最后结合所述第二识别结果执行所述第一交互指令,实现了基于眼势的交互解释功能,丰富了人机交互的操作类型。
105.在本发明一些可能的实施方式中,可选地,所述解释行为数据为手势数据;所述接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果的步骤,包括:
106.获取用户的肢体动作视频数据;
107.从所述肢体动作视频数据中提取图像序列;
108.从所述图像序列中提取手部区域;
109.利用预先配置的手势识别模型对所述手部区域进行手势识别,得到手势行为;
110.利用所述人物画像对所述手势行为进行识别得到解释行为识别结果。
111.可以理解的是,可以通过所述智能终端所具备的摄像模块采集用户的肢体动作视频数据,也可以通过所述智能终端与其他具备摄像功能的终端建立通信连接后,控制其他终端采集用户的肢体动作视频数据。采集到用户的肢体动作视频数据后,可以先对所述肢
体动作视频数据进行预处理,再提取图像序列;可以利用已训练好的神经网络从所述图像序列中提取手部区域,再利用预先配置的手势识别模型对所述手部区域进行手势识别,得到手势行为;最后利用所述人物画像对所述手势行为进行识别得到解释行为识别结果,从而高效且准确的识别手势行为。
112.在本发明一些可能的实施方式中,所述从所述图像序列中提取手部区域的步骤,包括:
113.对所述图像序列进行背景分割处理,得到分割图像;
114.从所述分割图像中确定手部区域。
115.可以理解的是,为了将手部准确而又高效地从图像中识别出来,本发明的实施例中采取先将图像背景进行删除的方法,通过提取当前像素点,并将当前像素点的像素值与所有背景样本像素值进行比较,当与所述当前像素点的像素值的差值在第一预设范围内的所述背景样本像素值的第一数量在于第一预设阈值,则确定所述当前像素点属于背景点;将所述有背景点找出形成当前背景点集,由此得到背景图像区域,将背景图像区域删除,可得到只保留肢体区域的分割图像。
116.在本发明一些可能的实施方式中,在所述利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果的步骤之后,包括:
117.根据所述手势行为确定手势交互数据;
118.根据手势交互数据与交互指令之间的映射关系,确定所述手势交互数据对应的第二交互指令;
119.根据所述第二识别结果,执行所述第二交互指令。
120.可以理解的是,所述手势行为可以是手语动作,也可以是智能终端预置手势库里的手势动作,本发明实施例根据所述手势行为确定手势交互数据后,再结合预置的手势交互数据与交互指令之间的映射关系,确定所述手势交互数据对应的第二交互指令;根据所述第二识别结果,执行所述第二交互指令,达到用户需要的输入控制效果。
121.在本发明的一些实施例中,所述人物画像的构建过程包括:
122.获取所述用户的历史交流数据;
123.根据所述历史交流数据确定所述用户的多个交流对象;
124.从所述用户的多个交流对象中确定第一对象,并确定所述用户与所述第一对象之间的关系;
125.利用所述用户和所述第一对象各自的唯一的对象标识生成第一关系标签;
126.获取所述用户和所述第一对象之间的第一交流行为数据;
127.根据所述第一交流行为数据和所述第一关系标签,构建所述用户的角色画像;
128.重复前述操作,直至所述用户按所有所述交流对象建立了多个角色画像;
129.将多个所述角色画像进行融合,得到所述人物画像。
130.可以理解的是,为了丰富人物画像的细节,本发明的实施例通过用户与其交流对象之间的关系,先构造出用户的不同角色的角色画像,再由多个角色画像融合成用户的人物画像。每个用户及其交流对象之间都具有唯一的对象标识,交流对象之间的关系可以是角色关系如父母、子女、夫妻、朋友、同事、医患或其他基本关系等,而交流对象的角色标签可以基于其唯一的对象标识通过预设的规则进行构建,如在唯一的对象标识后加上角色字
段等,而第一关系标签构建可以是由所述第一对象和用户的角色标签的融合。
131.在本实施例中,通过用词、情感、年龄、性别、教育阶段、口音、爱好等方面建立人物的角色画像,基于人物角色画像及必要的技术手段(关键词识别、情绪识别和态度分析等),融合构成人物画像,丰富人物画像的细节,提高了后续利用人物画像对解释行为数据进行识别的准确率。
132.如图5所示,本发明的另一实施例提供一种智能终端500,包括:采集模块501、控制模块502、提示模块503和识别模块504;其中,
133.所述采集模块501,用于采集用户的视频数据;
134.所述控制模块502,用于根据所述视频数据确定所述用户的人物画像;
135.所述提示模块503,用于提示用户输入语音数据;
136.所述识别模块504,用于对所述语音数据进行识别,得到第一识别结果;
137.所述提示模块503,还用于提示用户输入解释行为数据;
138.所述识别模块504,还用于接收所述解释行为数据,利用所述人物画像对所述解释行为数据进行识别,得到解释行为识别结果;
139.所述控制模块502,还用于利用所述解释行为识别结果对所述第一识别结果进行修正得到第二识别结果。
140.本实施例提供的智能终端500的运行方法请参见前述各方法实施例,在此不再赘述。
141.图5为本实施例中智能终端500的模块组成示意图。可以理解的是,图5仅仅示出了智能终端500的简化设计。在实际应用中,智能终端500还可以分别包含必要的其他元件,包含但不限于任意数量的输入/输出系统、处理器、控制器、存储器等,而所有可以实现本技术实施例的用于智能终端的输入方法的装置都在本技术的保护范围之内。应当知道的是,图5 所示的智能终端500的框图仅作示意,其所示出的各模块的数量并不对本发明的保护范围进行限定。
142.本发明的另一实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如前述任一所述用于智能终端的输入方法。
143.需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为依据本技术,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本技术所必须的。
144.在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
145.在本技术所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间
的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
146.上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
147.另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
148.上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本技术各个实施例上述方法的全部或部分步骤。而前述的存储器包括:u盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
149.本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:read-onlymemory,简称:rom)、随机存取器(英文:randomaccessmemory,简称:ram)、磁盘或光盘等。
150.以上对本技术实施例进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的一般技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本技术的限制。
151.虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,可轻易想到变化或替换,均可作各种更动与修改,包含上述不同功能、实施步骤的组合,包含软件和硬件的实施方式,均在本发明的保护范围。