本公开涉及人工智能
技术领域:
,特别涉及一种执行任务的方法、装置及计算机可读存储介质。
背景技术:
:人机对话是人工智能领域的子方向,能够让人通过人类语言与计算机进行交互。人机对话中很重要的一个环节是识别用户的意图,只有正确识别用户的意图,对话平台才能做出正确的回答。用户的意图例如可以包括打车、订票、打电话、播放音乐、推荐餐厅等类别。以打车意图为例,用户可以采用不同的任务语句,如“我想打个车从家出发”“我想打个专车”等等。当用户输入任务语句时,机器可以对任务语句进行匹配和解析,确定用户的任务意图,从而完成对用户语义的理解,以便完成用户的指令。人机对话的一个具体应用场景是任务型对话管理。在任务型对话管理应用场景下,用户输入任务语句时,有可能缺少任务的关键信息。例如,用户的任务意图是“旅行”,那么用户输入的任务语句应当包括“出发日期”、“出发时间”、“出发地点”、“目的地点”等关键信息。如果用户输入的任务语句缺少必要信息,对话平台会通过多次的追问对话获取完整的关键信息。获取完整的关键信息后,对话平台可以执行相关逻辑完成对火车票的查询和下单,从而完成用户购买火车票的任务。在使用对话平台进行人机对话前,需要先针对每种意图类型添加语料生成样本语句。然后,提取样本语句中的关键信息,并标注出样本语句中的关键信息。最后,利用样本语句中的关键信息作为样本任务,标注任务意图,对机器学习模型进行训练,训练后的机器学习模型就能够识别出用户输入的目标任务的任务意图。对话平台根据用户输入的任务语句进行匹配和解析得到必要信息后,即可输入训练后的机器学习模型得到用户的任务意图,然后调用相应的语义交互功能来执行目标任务。技术实现要素:发明人研究发现,机器学习模型通常需要大量的标注数据。根据话术模板生成的样本语句非常有限,利用有限的语句难以得到泛化性很好的机器学习模型。这可能导致传统的对话平台对于意图性较弱的语句,难以识别用户的任务意图。在识别用户的任务意图不准确的情况下执行语义交互任务,会导致人机对话平台执行语义交互任务的准确性较低。本公开解决的一个技术问题是,如何提高人机对话平台执行语义交互任务的准确性。根据本公开实施例的一个方面,提供了一种执行任务的方法,包括:确定目标任务所对应的样本任务簇;利用目标任务对应的匹配网络对目标任务进行处理,得到目标任务的任务意图;其中,目标任务对应的匹配网络,是采用目标任务所对应的样本任务簇中标注了任务意图的样本任务作为训练样本训练得到的;调用与目标任务的任务意图相关联的语义交互功能,以执行目标任务。在一些实施例中,还包括:对样本任务进行聚类,得到各个样本任务簇。在一些实施例中,确定目标任务所对应的样本任务簇包括:利用预先训练的卷积神经网络编码器分别对目标任务及各个样本任务进行编码,得到目标任务及各个样本任务的编码向量;确定目标任务的编码向量与各个样本任务的编码向量之间的距离;将第五样本任务所在的样本任务簇作为目标任务所对应的样本任务簇,其中,第五样本任务的编码向量与目标任务的编码向量之间的距离最近。在一些实施例中,对样本任务进行聚类,得到各个样本任务簇包括:利用卷积神经网络分类模型确定各个样本任务之间的相似度;根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇。在一些实施例中,利用卷积神经网络分类模型确定各个样本任务之间的相似度包括:从各个样本任务中任意选择两个样本作为第一样本任务和第二样本任务;采用标注了第一任务意图的第一样本任务作为训练样本,训练第一卷积神经网络分类模型;利用第一卷积神经网络分类模型对第二样本任务进行处理,得到第二样本任务的预测任务意图;将第二样本任务的预测任务意图为第二任务意图的概率,作为第一样本任务与第二样本任务的相似度。在一些实施例中,利用卷积神经网络分类模型确定各个样本任务之间的相似度包括:从各个样本任务中任意选择两个样本作为第三样本任务和第四样本任务;采用标注了第三任务意图的第三样本任务作为训练样本,训练第三卷积神经网络分类模型,第三卷积神经网络分类模型包括第三卷积神经网络编码器及第三卷积神经网络分类器;固定第三卷机神经网络编码器的参数,采用标注了第四任务意图的第四样本任务作为训练样本,训练第三卷积神经网络分类模型,得到第四卷积神经网络分类模型;利用第四卷积神经网络分类模型对第四样本任务进行处理,得到第四样本任务的预测任务意图;将第四样本任务的预测任务意图为第四任务意图的概率,作为第三样本任务与第四样本任务的相似度。在一些实施例中,根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇包括:将每个样本任务初始化为一个样本任务簇;将当前相似度最大的两个样本任务簇合并为一个样本任务簇,并删除两个样本任务簇;判断样本任务簇的数量是否到达预期的样本任务簇个数;若样本任务簇的数量未达到预期的样本任务簇个数,则重复执行样本任务簇的合并处理,直至样本任务簇的数量达到预期的样本任务簇个数;其中,当两个样本任务簇都只含有一个样本任务时,两个样本任务簇的相似度为两个样本任务簇所包含样本任务的相似度;当两个样本任务簇中的至少一个样本任务簇含有多个样本任务时,两个样本任务簇的相似度为其中一个样本任务簇所包含的样本任务与另一个样本任务簇所包含的样本任务之间的最大相似度。在一些实施例中,根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇包括:利用预先训练的卷积神经网络编码器分别对各个样本任务进行编码,得到各个样本任务的编码向量;将相似度大于预设值的样本任务进行两两合并,得到多个样本任务簇;将当前距离最短的两个样本任务簇合并为一个样本任务簇,并删除两个样本任务簇;判断样本任务簇的数量是否到达预期的样本任务簇个数;若样本任务簇的数量未达到预期的样本任务簇个数,则重复执行样本任务簇的合并处理,直至样本任务簇的数量达到预期的样本任务簇个数;其中,当两个样本任务簇都只含有一个样本任务时,两个样本任务簇之间的距离为两个样本任务簇所包含样本任务的编码向量之间的距离;当两个样本任务簇中的至少一个样本任务簇含有多个样本任务时,两个样本任务簇之间的距离为其中一个样本任务簇所包含样本任务的编码向量与另一个样本任务簇所包含样本任务的编码向量之间的最短距离。在一些实施例中,根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇还包括:计算各个原有样本任务簇之间的距离;将两个原有样本任务簇聚为一个新的样本任务簇之后,重新计算新的样本任务簇与其它原有样本任务簇之间的距离,不重新计算其它原有样本任务簇之间的距离。在一些实施例中,还包括:采用目标任务所对应的样本任务簇中标注了任务意图的样本任务作为训练样本,对目标任务对应的匹配网络进行训练,使得目标任务对应的匹配网络能够根据输入的目标任务得到目标任务的任务意图。根据本公开实施例的另一个方面,提供了一种执行任务的装置,包括:任务簇确定模块,被配置为确定目标任务所对应的样本任务簇;任务处理模块,被配置为利用目标任务对应的匹配网络对目标任务进行处理,得到目标任务的任务意图;其中,目标任务对应的匹配网络,是采用目标任务所对应的样本任务簇中标注了任务意图的样本任务作为训练样本训练得到的;调用与目标任务的任务意图相关联的语义交互功能,以执行目标任务。根据本公开实施例的又一个方面,提供了又一种执行任务的装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器中的指令,执行前述的执行任务的方法。根据本公开实施例的再一个方面,提供了一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现前述的执行任务的方法。本公开首先确定目标任务所对应的样本任务簇,然后利用目标任务对应的匹配网络对目标任务进行处理得到目标任务的任务意图。从而在训练样本数量较少的情况下,更准确的确定目标任务的任务意图,并调用相应的语义交互功能来执行目标任务,提高人机对话平台执行语义交互任务的准确性。通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。附图说明为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。图1示出了本公开一些实施例的执行任务的方法的准备过程的流程示意图。图2示出了本公开一些实施例的执行任务的方法的流程示意图。图3示出了本公开一些实施例的执行任务的装置的结构示意图。图4示出了本公开另一些实施例的执行任务的装置的结构示意图。具体实施方式下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。虽然利用常用场景下的话术模板,能够生成不同任务意图下的样本语句作为训练数据。但是在文本分类的领域,深度学习是一种对训练数据量要求较高的技术,需要采用大量标注的样本语句进行训练才能发挥较好的作用。发明人考虑到依靠话术模板通过人工的方式在对话平台上生成的样本语句的数量相对有限,难以覆盖人类表达需求、下发指令时的多种语句表述,所以发明人考虑将现有技术中的问题转化成小样本学习下的文本分类问题。首先结合图1描述执行任务的方法的准备过程。图1示出了本公开一些实施例的执行任务的方法的准备过程的流程示意图。如图1所示,本实施例包括步骤s102~步骤s106。在步骤s102中,生成样本任务。首先对任务意图进行比较直观的解释。任务意图例如可以包括旅行、打电话、设备控制等类别。针对每一个任务意图的类别进行细分,可以得到很多具体的任务意图,例如设备控制类任务意图具体可以包括打开设备、设置设备亮度、设置设备颜色等等。对于具体的任务意图对应的具体样本任务,可以通过话术模板得到。例如,话术模板的格式为:{请|快|给我|帮我|替我|请给我|请帮我|请替我|快给我|快帮我|快替我|我想|我要|我想要}[打开]{全部}【设备名称】。其中符号“|”代表选择,该符号前后的词之间可以互相替代,选择其一即可;符号“{}”中的词为可选择是否添加的内容;符号“[]”中的词代表必须添加的内容;符号“【】”中的词代表需要自行设置的内容。根据话术模板,将可以相互替代的词进行排列组合,最后得到一系列的样本语句。将样本语句输入到对话平台中提取相应的关键信息,可以得到样本任务以作为训练数据集。在步骤s104中,对样本任务进行聚类,得到各个样本任务簇。在对样本任务进行聚类时,可以首先利用卷积神经网络分类模型确定各个样本任务之间的相似度。然后,根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇。为便于理解,首先介绍一下cnn(convolutionalneuralnetwork,卷积神经网络)的工作原理。cnn分类模型包括cnn编码器和cnn分类器。cnn的卷积核大小例如可以为5,隐藏层的层数例如可以为20层。将训练样本输入cnn编码器后,cnn编码器能够输出固定长度的编码后的向量,然后由cnn分类器根据该向量判断对应各个任务意图的概率。下面介绍利用卷积神经网络分类模型确定各个样本任务之间的相似度的第一种方法。具体包括:(1)从各个样本任务中任意选择两个样本作为第一样本任务和第二样本任务。(2)采用标注了第一任务意图的第一样本任务作为训练样本,训练第一卷积神经网络分类模型。(3)利用第一卷积神经网络分类模型对第二样本任务进行处理,得到第二样本任务的预测任务意图。(4)将第二样本任务的预测任务意图为第二任务意图的概率,作为第一样本任务与第二样本任务的相似度。在利用卷积神经网络分类模型确定各个样本任务之间的相似度的第一种方法中,第一样本任务训练得到的第一cnn分类模型适应第二样本任务的表现情况,能够衡量第一样本任务与第二样本任务的相似性。如果第一样本任务与第二样本任务较为相似,那么利用第一卷积神经网络分类模型对第二样本任务进行处理,得到第二样本任务的预测任务意图为第二任务意图的概率应该较高。如果第二样本任务具体为一个任务,那么可以直接将第二样本任务的预测任务意图为第二任务意图的概率,作为第一样本任务与第二样本任务的相似度。如果第二样本任务具体为多个任务,那么可以对第二样本任务的预测任务意图的多次结果进行统计,根据统计结果关于第二任务意图的准确率和召回率,计算出第二样本任务的预测任务意图为第二任务意图的概率,然后再作为第一样本任务与第二样本任务的相似度。本领域技术人员应理解,通过上述方式可以计算出第一样本任务与第二样本任务的相似度,相对应的可以计算出第二样本任务与第一样本任务的相似度,理论上二者的值应该较为相近。在后续处理过程中,如果需要第一样本任务与第二样本任务之间的相似度,可以直接利用第一样本任务与第二样本任务的相似度,也可以直接利用第二样本任务与第一样本任务的相似度,还可以利用二者的平均值等等。发明人考虑到有限的训练数据会导致利用cnn分类模型得到的各个样本任务之间的相似度准确性较低。于是发明人考虑采用第二种改进的方法。下面介绍利用卷积神经网络分类模型确定各个样本任务之间的相似度的第二种方法。具体包括:(1)从各个样本任务中任意选择两个样本作为第三样本任务和第四样本任务;(2)采用标注了第三任务意图的第三样本任务作为训练样本,训练第三卷积神经网络分类模型,第三卷积神经网络分类模型包括第三卷积神经网络编码器及第三卷积神经网络分类器;(3)固定第三卷机神经网络编码器的参数,采用标注了第四任务意图的第四样本任务作为训练样本,训练第三卷积神经网络分类模型,得到第四卷积神经网络分类模型;(4)利用第四卷积神经网络分类模型对第四样本任务进行处理,得到第四样本任务的预测任务意图;(5)将第四样本任务的预测任务意图为第四任务意图的概率,作为第三样本任务与第四样本任务的相似度。得到各个样本任务之间的相似度之后,可以根据到各个样本任务之间的相似度构建相似性矩阵s,相似性矩阵s为n行n列的矩阵,其中n表示样本任务的个数,sij为相似性矩阵s的元素,表示第i个样本任务与第j个样本任务的相似性。然后,可以根据各个样本任务之间的相似度对样本任务进行聚类。下面介绍根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇的第一种方法。具体包括:(1)将每个样本任务初始化为一个样本任务簇;(2)将当前相似度最大的两个样本任务簇合并为一个样本任务簇,并删除两个样本任务簇;(3)判断样本任务簇的数量是否到达预期的样本任务簇个数;(4)若样本任务簇的数量未达到预期的样本任务簇个数,则重复执行样本任务簇的合并处理,直至样本任务簇的数量达到预期的样本任务簇个数;其中,当两个样本任务簇都只含有一个样本任务时,两个样本任务簇的相似度为两个样本任务簇所包含样本任务的相似度;当两个样本任务簇中的至少一个样本任务簇含有多个样本任务时,两个样本任务簇的相似度为其中一个样本任务簇所包含的样本任务与另一个样本任务簇所包含的样本任务之间的最大相似度。预期的样本任务簇个数可以根据业务需要进行设定。例如,预期的样本任务簇个数可以设置为前文提到的任务意图的类别。根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇的第一种方法不需要设置聚类的初始点,且不会使聚类结果陷入局部最优的情况。同时,由于样本任务的数量相对较小,聚类过程的时长也相对较短。下面介绍根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇的第二种方法。具体包括:(1)利用预先训练的卷积神经网络编码器分别对各个样本任务进行编码,得到各个样本任务的编码向量;(2)将相似度大于预设值的样本任务进行两两合并,得到多个样本任务簇;(3)将当前距离最短的两个样本任务簇合并为一个样本任务簇,并删除两个样本任务簇;(4)判断样本任务簇的数量是否到达预期的样本任务簇个数;(5)若样本任务簇的数量未达到预期的样本任务簇个数,则重复执行样本任务簇的合并处理,直至样本任务簇的数量达到预期的样本任务簇个数;其中,当两个样本任务簇都只含有一个样本任务时,两个样本任务簇之间的距离为两个样本任务簇所包含样本任务的编码向量之间的距离;当两个样本任务簇中的至少一个样本任务簇含有多个样本任务时,两个样本任务簇之间的距离为其中一个样本任务簇所包含样本任务的编码向量与另一个样本任务簇所包含样本任务的编码向量之间的最短距离。预期的样本任务簇个数可以根据业务需要进行设定。例如,预期的样本任务簇个数可以设置为前文提到的任务意图的类别。在根据各个样本任务之间的相似度对样本任务进行聚类,得到各个样本任务簇的第二种方法中,需要计算各个原有样本任务簇之间的距离。发明人研究发现,传统的计算方法中,每次样本任务簇合并后需要重新计算各个样本任务簇之间的距离,其中包括进行大量的重复性计算。重新计算各个样本任务簇之间的距离的时间复杂度为o(n2)。在一些实施例中,将两个原有样本任务簇聚为一个新的样本任务簇之后,可以只重新计算新的样本任务簇与其它原有样本任务簇之间的距离,不重新计算其它原有样本任务簇之间的距离。例如,假设有a,b,c,d四个样本任务簇,表1示出了它们之间的距离:表1如果聚类时合并c和d,那么删除表1中与c、d相关的距离数据,保留不需要改变的行,重新计算原始类与样本任务簇类(c,d)相关的距离数据。表2样本任务簇样本任务簇距离ab3ac,d3bc,d3这种样计算方式的时间复杂度为o(n),能够有效减少算法的时间复杂度和空间复杂度,节省计算时间和存储空间,减少不必要的计算量。在步骤s106中,采用各个样本任务簇中标注了任务意图的样本任务作为训练样本,分别对各个样本任务簇对应的匹配网络进行训练,使得各个样本任务簇分别对应的匹配网络能够根据输入的目标任务得到目标任务的任务意图。mnet(matchingnetworks,匹配网络)包括cnn编码器以及分类器。对于第k个样本任务簇ck,训练多任务的mnet模型时,核心是训练mnet模型当中cnn编码器的编码参数fk。训练后的cnn编码器能够将输入的语句x1编码为fk(x1),将输入的语句x2编码为fk(x2)。度量λ(x1,x2)=fk(x1)tfk(x2)代表向量之间的相似程度。本实施例能够训练得到各个样本任务簇分别对应的匹配网络,各个匹配网络得到预测结果的形式是目标任务为各类任务意图的概率。这样一来,可以进一步通过设置多个阈值以及设置判断逻辑的方式最终得到目标任务的任务意图,从而更加准确的得到目标任务的任务意图,以便调用相应的语义交互功能来执行目标任务。下面结合图2描述执行任务的方法的识别过程。图2示出了本公开一些实施例的执行任务的方法的流程示意图。如图2所示,本实施例包括步骤s202~步骤s206。在步骤s202中,确定目标任务所对应的样本任务簇。在一些实施例中,具体确定目标任务所对应的样本任务时,首先利用预先训练的卷积神经网络编码器分别对目标任务及各个样本任务进行编码,得到目标任务及各个样本任务的编码向量。然后,确定目标任务的编码向量与各个样本任务的编码向量之间的距离。最后,将第五样本任务所在的样本任务簇作为目标任务所对应的样本任务簇,其中,第五样本任务的编码向量与目标任务的编码向量之间的距离最近。在步骤s204中,利用目标任务对应的匹配网络对目标任务进行处理,得到目标任务的任务意图。其中,目标任务对应的匹配网络,是采用目标任务所对应的样本任务簇中标注了任务意图的样本任务作为训练样本训练得到的。例如,p(y|x;fk)表示根据度量计算的softmax分布,定义为其中,xl为样本任务簇ck中的某个训练样本,yl该训练样本的任务意图,训练样本的任务意图以独热编码的模式标注,这部分数据被称作是支持数据,在测试是会被保存在mnet中,与目标任务x进行对比。xi为样本任务簇ck中的各个训练样本。根据匹配网络输出的概率,能够判断用户的任务意图。在步骤s206中,调用与目标任务的任务意图相关联的语义交互功能,以执行目标任务。例如,语义交互平台识别出用户的目标任务为“打车”,则可以调用打车应用的api(applicationprogramminginterface,应用程序编程接口)执行打车任务。再比如,语义交互平台识别出用户的目标任务为“播放音乐”,则可以调用音乐应用的api执行播放音乐任务。本实施例将聚类方法与自然语言处理相结合,先对样本任务进行聚类,再利用匹配网络确定目标任务的意图。因此,本实施例能够在训练样本数量较少的情况下,更准确的确定目标任务的任务意图,并调用相应的语义交互功能来执行目标任务,从而提高人机对话平台执行语义交互任务的准确性。此外,本实施例适用于人机对话的对话平台,能够解决小数据集下的文本意图分类问题,避免深度学习在小数据集下的过拟合现象。下面结合图3描述本公开执行任务的装置的一些实施例。图3示出了本公开一些实施例的执行任务的装置的结构示意图。如图3所示,该实施例的执行任务的装置30包括:任务簇确定模块302,被配置为确定目标任务所对应的样本任务簇;任务处理模块304,被配置为利用目标任务对应的匹配网络对目标任务进行处理,得到目标任务的任务意图;其中,目标任务对应的匹配网络,是采用目标任务所对应的样本任务簇中标注了任务意图的样本任务作为训练样本训练得到的。任务执行模块306,被配置为调用与目标任务的任务意图相关联的语义交互功能,以执行目标任务。本实施例能够在训练样本数量较少的情况下,更准确的确定目标任务的任务意图,并调用相应的语义交互功能来执行目标任务,从而提高人机对话平台执行语义交互任务的准确性。下面结合图4描述本公开执行任务的装置的另一些实施例。图4示出了本公开另一些实施例的执行任务的装置的结构示意图。如图4所示,该实施例的执行任务的装置40包括:存储器410以及耦接至该存储器410的处理器420,处理器420被配置为基于存储在存储器410中的指令,执行前述任意一些实施例中的执行任务的方法。其中,存储器410例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(bootloader)以及其他程序等。执行任务的装置40还可以包括输入输出接口430、网络接口440、存储接口430等。这些接口430、440、450以及存储器410和处理器420之间例如可以通过总线460连接。其中,输入输出接口430为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口440为各种联网设备提供连接接口。存储接口450为sd卡、u盘等外置存储设备提供连接接口。本公开还包括一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现前述任意一些实施例中的执行任务的方法。本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。当前第1页12