数据质量检查方法及系统与流程

文档序号:21455738发布日期:2020-07-10 17:50阅读:2481来源:国知局
数据质量检查方法及系统与流程

本发明涉及数据管控技术领域,特别是指一种数据质量检查方法及系统。



背景技术:

数据质量管理(dataqualitymanagement),是指对数据从计划、获取、存储、共享、维护、应用、消亡生命周期的每个阶段里可能引发的各类数据质量问题,进行识别、度量、监控、预警等一系列管理活动,并通过改善和提高组织的管理水平使得数据质量获得进一步提高。高质量的数据也就是精确的、一致的和及时可用的数据,是当今组织管理不可缺少的一个因素。组织机构必须努力识别与其决策制定相关的数据,以便制定确保数据准确性和完全性的业务策略和实践,并为企业范围的数据共享提供方便。

改进数据质量的首要任务是定义一套标准化的数据规范,对具体数据项的定义、口径、格式、取值、单位等进行规范说明,形成对该数据项的具体质量要求,依托这套规范作为衡量和提高数据质量的标尺,在数据采集、加工和应用的各环节对关键数据项进行预防性或监测性的核检,暴露各系统数据质量问题。例如,全面分析和编档e-r图和其他文档中的所有业务规则、字段级别的数据完整性约束。

在以大规模并行处理(mpp)、高性能一体机等技术为基础的传统数据仓库环境下,由于各业务数据的处理以批量方式进行,即定时地(一般以天为单位)进行业务数据的采集、处理、汇总、加工。因此数据质量的检查也一般以天为单位批量进行,并定期生成各系统关键数据质量报告,掌握系统数据质量状况。

而在大数据时代的背景下,数据即资产,数据具有数据量大、数据种类多、要求实时性强、数据所蕴藏的价值大的特点。以深度包检测技术(deeppacketinspection,dpi)采集的统一dpi数据为例,1万个演进基站(enb)1天外部数据表示法(externaldatarepresentation,xdr)存储量达到了8.5t,而数据处理的业务特征要求24小时实时入库处理,可见,使用传统的批量处理的技术方案进行xdr数据质量的检查方式,在时效性上已经无法满足需求。

传统数据仓库下数据质量管理的处理方式如图1所示。此种模式下,业务数据的采集以批量方式进行。例如在每天24点之前系统收集当日增量或全量的业务数据,将业务数据加载至关系型数据库,同时将业务规则解析为质量规则,逐一进行质量核查。在这种技术方案下,数据质量核查结果存在一定的时间延迟,且由于数据量的增长以及数据质量核查规则复杂性的增加,数据质量检查运行所需的处理时间快速增长,甚至可能出现前一天的数据没有处理完,第二天新数据就已经到达的情况。

可见,在大数据环境下,数据量已经极大的增长,再加上数据类型的多样化,非结构化数据、内外部数据混搭,数据种类多、要求实时性强。传统的数据质量管理模式难以应对数据的复杂性、质量检查的高效性、数据运营的创新性等管理要求。



技术实现要素:

本发明要解决的技术问题是提供一种数据质量检查方法及系统,能够自动地对海量数据进行实时质量监控。

为解决上述技术问题,本发明的实施例提供技术方案如下:

本发明的实施例提供一种数据质量检查系统,包括监控组件,数据采集组件,质量检查组件,质量规则库和数据存储组件,所述数据存储组件采用分布式文件系统hdfs;

所述监控组件,用于调用所述数据采集组件和所述质量检查组件;

所述数据采集组件,用于批量地或实时地获取检查对象,并将检查对象存入所述数据存储组件;

所述质量检查组件,用于从所述质量规则库中获取质量规则,并从所述数据存储组件获取检查对象,根据所述质量规则对所述检查对象进行质量检查,所述质量规则的类型与所述检查对象的数据类型相匹配;

所述监控组件,还用于记录所述质量检查组件的检查结果以及异常数据,并根据用户输入的查询指令返回查询结果。

进一步地,还包括数据清理组件,

所述监控组件还用于调用所述数据清理组件对历史数据进行清理。

进一步地,所述质量检查组件还包括质量规则引擎,用于对获取的所述质量规则进行识别与解析。

进一步地,所述数据采集组件具体用于在单个数据完成采集后,根据数据的来源以及数据的格式信息,将数据的数据类型标注为结构化数据、非结构化数据、或流式数据后存储。

进一步地,所述质量规则库具体用于获取业务系统或管理平台中的技术规则或业务规则,实时获取规则的变更信息,通过解析将所述技术规则或所述业务规则转化为所述质量规则,所述质量规则的检查类型包括以下至少一种:完整性、规范性、一致性、准确性、唯一性、关联性。

进一步地,所述质量检查组件具体用于根据数据标注的类型配合质量规则的检查类型,选择不同的处理方式,所述处理方式包括:文本处理、sparksql处理,sparkstreaming处理。

进一步地,所述文本处理用于完整性、准确性、唯一性的质量检查;

所述sparksql处理用于一致性、准确性、关联性的质量检查;

所述sparkstreaming处于用于对时效性要求大于第一阈值、或业务数据吞吐量大于第二阈值的业务数据的质量检查。

进一步地,所述业务规则的采集通过kafka消息服务队列获取。

本发明实施例还提供了一种数据质量检查方法,应用于如上所述的数据质量检查系统,包括:

批量地或实时地获取检查对象,并存储所述检查对象;

从质量规则库中获取质量规则,根据所述质量规则对所述检查对象进行质量检查,所述质量规则的类型与所述检查对象的数据类型相匹配;

记录检查结果以及异常数据,并根据用户输入的查询指令返回查询结果。

进一步地,还包括:

对历史数据进行清理。

进一步地,还包括:

使用spark的map或reduce按照文本方式对所述检查结果进行汇总计算;或将检查结果明细导入数据库进行汇总sql或聚合nosql进行汇总计算。

进一步地,还包括:

在所述异常数据的数据量大于等于第三阈值且需要查询全部异常数据时,将所述异常数据保存在数据存储组件上;在所述异常数据的数据量小于所述第三阈值或仅需要查询样本异常数据时,将所述异常数据写入监控组件的数据库服务器。

本发明实施例还提供了一种数据质量检查设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的数据质量检查方法中的步骤。

本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的数据质量检查方法中的步骤。

本发明的实施例具有以下有益效果:

上述方案中,构建了一个高效的、通用的、自动的数据质量检查系统,并根据检查对象的数据类型、质量规则的类型,提出了自动匹配质量检查处理的方案,增加了系统的通用性与可扩展性,是一个标准的、通用的、自动的数据质量检查系统实现;通过本发明的技术方案,极大提升数据质量管理系统的时效性,可承载大数据平台环境下tb级大规模、高性能、高时效的数据质量检查,提升数据质量管理系统的可用性与时效性。

附图说明

图1为传统数据仓库下数据质量管理的处理方式示意图;

图2为本发明实施例数据质量检查系统各组件的交互示意图;

图3为本发明实施例数据质量检查方法的流程示意图;

图4为本发明实施例数据质量检查系统的处理方式示意图;

图5为本发明实施例质量规则引擎的技术架构示意图。

具体实施方式

为使本发明的实施例要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。

其中,本发明所涉及的专业名词的名称和缩写会出现对应的变化,在缩写变化的时候本发明的技术方案依然是适用的。

本发明实施例提供一种数据质量检查方法及系统,能够自动地对海量数据进行实时质量监控。

本发明的实施例提供一种数据质量检查系统,包括监控组件,数据采集组件,质量检查组件,质量规则库和数据存储组件,所述数据存储组件采用分布式文件系统hdfs;

所述监控组件,用于调用所述数据采集组件和所述质量检查组件;

所述数据采集组件,用于批量地或实时地获取检查对象,并将检查对象存入所述数据存储组件;

所述质量检查组件,用于从所述质量规则库中获取质量规则,并从所述数据存储组件获取检查对象,根据所述质量规则对所述检查对象进行质量检查,所述质量规则的类型与所述检查对象的数据类型相匹配;

所述监控组件,还用于记录所述质量检查组件的检查结果以及异常数据,并根据用户输入的查询指令返回查询结果。

本实施例中,构建了一个高效的、通用的、自动的数据质量检查系统,并根据检查对象的数据类型、质量规则的类型,提出了自动匹配质量检查处理的方案,增加了系统的通用性与可扩展性,是一个标准的、通用的、自动的数据质量检查系统实现;通过本发明的技术方案,极大提升数据质量管理系统的时效性,可承载大数据平台环境下tb级大规模、高性能、高时效的数据质量检查,提升数据质量管理系统的可用性与时效性。

进一步地,监控组件具体可以分为调度组件、总控制器和监控平台,如图2所示,一具体实施例中,数据质量检查系统包括调度组件11,总控制器12,数据采集组件13,质量检查组件14,质量规则库17,数据存储组件16和监控平台18,所述数据存储组件16采用分布式文件系统hdfs;

所述调度组件11,用于根据预设时间或预设条件向所述总控制器发送调度指令,触发启动所述总控制器12;

所述总控制器12,用于调用所述质量检查组件14进行质量检查;调用所述数据采集组件13,批量地或实时地获取检查对象,并将检查对象存入所述数据存储组件16;

所述质量检查组件14,用于从所述质量规则库17中获取质量规则,并从所述数据存储组件16获取检查对象,根据所述质量规则对所述检查对象进行质量检查,所述质量规则的类型与所述检查对象的数据类型相匹配;

所述监控平台18,用于记录所述质量检查组件14的检查结果以及异常数据,并根据用户输入的查询指令返回查询结果。

进一步地,如图2所示,数据质量检查系统还包括数据清理组件15,

所述总控制器12还用于调用所述数据清理组件15对历史数据进行清理。

进一步地,所述质量检查组件14还包括质量规则引擎,用于对获取的所述质量规则进行识别与解析。

进一步地,所述数据采集组件13具体用于在单个数据完成采集后,根据数据的来源以及数据的格式信息,将数据的数据类型标注为结构化数据、非结构化数据、或流式数据后存储。

进一步地,所述质量规则库17具体用于获取业务系统或管理平台中的技术规则或业务规则,实时获取规则的变更信息,通过解析将所述技术规则或所述业务规则转化为所述质量规则,所述质量规则的检查类型包括以下至少一种:完整性、规范性、一致性、准确性、唯一性、关联性。

进一步地,所述质量检查组件14具体用于根据数据标注的类型配合质量规则的检查类型,选择不同的处理方式,所述处理方式包括:文本处理、sparksql处理,sparkstreaming处理。

进一步地,所述文本处理用于完整性、准确性、唯一性的质量检查;

所述sparksql处理用于一致性、准确性、关联性的质量检查;

所述sparkstreaming处于用于对时效性要求大于第一阈值、或业务数据吞吐量大于第二阈值的业务数据的质量检查。

进一步地,所述业务规则的采集通过kafka消息服务队列获取。

本发明实施例还提供了一种数据质量检查方法,应用于如上所述的数据质量检查系统,如图3所示,包括:

步骤101:批量地或实时地获取检查对象,并存储所述检查对象;;

步骤102:从质量规则库中获取质量规则,根据所述质量规则对所述检查对象进行质量检查,所述质量规则的类型与所述检查对象的数据类型相匹配;

步骤103:记录检查结果以及异常数据,并根据用户输入的查询指令返回查询结果。

本实施例中,构建了一个高效的、通用的、自动的数据质量检查方案,并根据检查对象的数据类型、质量规则的类型,提出了自动匹配质量检查处理的方案,增加了方案的通用性与可扩展性;通过本发明的技术方案,极大提升数据质量管理系统的时效性,可承载大数据平台环境下tb级大规模、高性能、高时效的数据质量检查,提升数据质量管理系统的可用性与时效性。

进一步地,该数据质量检查方法还包括:

调用所述数据清理组件对历史数据进行清理。

进一步地,该数据质量检查方法还包括:

使用spark的map或reduce按照文本方式对所述检查结果进行汇总计算;或将检查结果明细导入数据库进行汇总sql或聚合nosql进行汇总计算。

进一步地,该数据质量检查方法还包括:

在所述异常数据的数据量大于等于第三阈值且需要查询全部异常数据时,将所述异常数据保存在数据存储组件上;在所述异常数据的数据量小于所述第三阈值或仅需要查询样本异常数据时,将所述异常数据写入监控组件的数据库服务器。

其中,上述数据质量检查方法的步骤可以通过上述数据质量检查系统实现。

下面结合附图以及具体的实施例对本发明的数据质量检查方案进行进一步介绍:

本实施例充分利用了hadoop的分布式系统架构,采用消息服务支持实时数据流、使用hdfs支持海量数据的存储、应用spark框架实现海量数据的高效并行处理,并通过dbconnector建立处理平台与监控平台的数据链路,从而建立了一个实时的、自动的、高可用的、高性能、高扩展的、自动的海量数据实时质量监控系统,。

本实施例的数据质量检查系统的处理方式如图4所示。本实施例提出的实时数据质量检查系统,在原有组件基础上,放弃使用传统的关系型数据库,使用hdfs实现海量数据的存储、并借助spark内存计算框架搭建通用的质量规则引擎,从而实现海量数据的高效的并行处理。同时,还可以集成kafka、flume等消息队列服务,以流式方式完成业务数据的映射与质量规则的检查,真正实现实时的海量数据质量检查。

本实施例的数据质量检查系统的整体处理流程及各组件的交互过程如图2所示,具体的交互步骤描述如下:

步骤1、由调度组件11根据时间或条件调度,触发启动总控制器12;

步骤2、总控制器12首先调起数据采集组件13,即通过it系统提供的数据采集接口,批量地或实时地获取检查对象;

步骤3、将检查对象存入hdfs,供后续运行质量检查处理进行数据准备;

步骤4、总控制器12之后调起质量检查组件14;

步骤5、质量检查组件14首先从质量规则库17中获取质量检查规则,交由质量规则引擎进行识别与解析;

步骤6、质量检查组件14从数据存储组件16获取检查对象;

步骤7、质量检查组件14逐条将质量规则应用在检查对象上进行处理;

步骤8、质量规则引擎的处理结果(包括质量检查结果、异常数据两部分)记录在监控平台18,由监控平台18向用户展现质量检查结果与查询异常数据;

步骤9、完成质量检查后,总控制器12根据数据清理策略,清理历史数据;

步骤10、用户通过监控平台对质量检查的结果、明细异常数据、质量报告进行查询。

其中,关键组件的实现方式详细说明如下:

1.数据采集与数据标注

根据数据来源可将业务数据分为两类,一类是批量数据,使用传统的文件传输协议实现;另一类是流式数据,可使用kafka、flume等消息队列实现。单个数据完成采集后,数据采集组件13根据数据的来源、数据的格式等信息,将数据按照结构化数据、非结构化数据、流式数据分为三类,并进行标注后存储。

业务数据使用hdfs以满足海量数据的存储需求。根据企业级it系统的架构,分为以下两种方式:

a.使用企业级的hadoop文件系统

若企业已经搭建了企业级的hadoop文件系统(hdfs),如企业级大数据平台等,此时业务数据已经存储在该平台上,并定期更新,那么可以省去系统再次采集业务数据的过程,直接从企业级hdfs系统中读取原始业务数据,供数据质量检查运行平台使用。

b.使用应用级的hadoop文件系统

若不使用企业级的hdfs,或根据业务需求,仅对部分业务领域的数据、或对业务数据进行采样检查,则可以选择搭建应用级的hdfs,通过hdfsput、hdfsdistcp等方式,将业务数据拷贝至应用的hdfs进行存储。

2.质量规则解析

质量规则来源于业务系统或管理平台中的技术规则或业务规则。质量规则库17通过推送的消息服务,实时获取规则的变更信息,通过解析,将技术规则或业务规则转化为质量规则,质量规则按照检查的类型可分为完整性、规范性、一致性、准确性、唯一性、关联性等几类。解析完成的质量规则是后续通用质量规则引擎进行业务数据处理的计算依据,从而实现质量检查的实时性。

3.质量规则引擎

质量规则引擎的输入分为两部分,一部分是数据采集组件13输出的业务数据、一部分是质量规则库17输出的质量规则。质量规则引擎的处理逻辑就是将质量规则应用在业务数据上,完成对业务数据的质量检查,并输出质量检查结果。由于在数据采集组件13中,已将业务数据按照结构化、非结构化、流式数据进行了标注,因此实现上,将根据业务数据标注的类型、同时配合质量规则的类型,动态选择不同的处理方式,自动完成数据质量的检查。具体为:

即对于结构化数据,采用文本处理对完整性进行检查,采用文本处理对规范性进行检查,采用sparksql处理对一致性进行检查,采用sparksql处理对准确性进行检查,采用文本处理对唯一性进行检查,采用sparksql处理对关联性进行检查;对于非结构化数据,采用文本处理对完整性进行检查,采用文本处理对规范性进行检查,采用文本处理对一致性进行检查,采用文本处理对准确性进行检查,采用文本处理对唯一性进行检查,采用文本处理对关联性进行检查;对于流式数据,采用sparkstreaming处理对完整性进行检查,采用sparkstreaming处理对规范性进行检查,采用sparksql处理对一致性进行检查,采用sparksql处理对准确性进行检查,采用sparkstreaming处理对唯一性进行检查,采用sparksql处理对关联性进行检查

以下对质量规则引擎的技术实现进行详细说明。

通用质量规则引擎使用spark内存技术框架搭建。spark是专为大规模数据处理而设计的快速通用的计算引擎。spark拥有hadoopmapreduce所具有的优点,但不同于mapreduce的是,job中间输出结果可以保存在内存中,从而不再需要读写hdfs,因此spark可以大幅提高数据检查处理效率。此外,借助与yarn等资源调度工具的集成,spark可以在hadoop文件系统(hdfs)中并行运行,原生支持hdfs,并且其计算节点支持弹性扩展,利用大量廉价计算资源并发的特点来支持大规模数据处理。

质量规则引擎的技术架构如图5所示。

spark的工作流程可以概括为三步:创建并发任务,对数据进行transformation(变换)操作,如map(比对)、filter(过滤)、union(联合)、intersect(相交)等,然后执行运算,如reduce(缩小),count(计数),或者简单地收集结果。spark任务一般由spark的driver(驱动)节点发起,经过sparkmaster(主控)进行资源调度分发。比如对于有4个sparkworker节点的情况,每个sparkworker又会根据系统资源的情况,开启多个executor(执行者)进行任务的执行。这些节点上的多个executor计算进程就会同时开始工作,每个executor会独立的去hdfs取来原始数据,直接套用spark提供的分析算法或者使用自定义流程来处理数据,计算完后把相应结果写回hdfs或通过dbconnector(数据总线连接)写入数据库(sql/nosql)。

业务数据的处理方式分为以下三类:文本处理执行简单检查、sparksql处理来执行常规检查,sparkstreaming处理执行流式数据检查。具体为:

(1)、文本处理

文本处理的方式用于完整性、准确性、唯一性方面的质量检查,例如,字段类型长度是否合法、字段是否空值违法、字段值域是否违法等等。此种应用场景的特点是不需要进行数据关联,仅对数据本身的分析即可完成质量检查。因此处理方式上,将业务数据映射为rdd,使用spark的map、filter等操作执行质量检查。但由于需要针对每一种质量规则编写特定的map、filter、reduce过程,因此此种方式还适用于非结构化数据,且由于使用了原生的map等方法,一般不需要进行数据关联等操作,避免了shuffle,因此执行效率较高。

(2)、sparksql处理

sparksql的方式适用于一致性、准确性、关联性方面的质量检查,例如,外键关联违法、多个数据值之间的关联性违法等。此种应用场景的特点是需要在多个数据之间进行逻辑计算、比对等操作。因此处理方式上,将业务数据映射为dataset,增加schema信息后转换为临时数据表或全局数据表,质量规则以sql查询的方式执行。此种方式支持传统的sql语法,因此其通用性最高,且适合复杂的质量规则。但由于质量规则的复杂性、以及存在多个数据之间的关联,在执行过程中存可能出现shuffle,因此执行效率相对较低。

(3)、sparkstreaming处理

此种方式适用于对时效性要求极高的质量规则、或业务数据吞吐量极大的应用场景。处理方式上,通过kafaka、flume等消息服务以流式方式获取数据,并将业务数据映射为dstream进行处理。此外,由于流式数据的特点,此种方式并不适用于一致性等需要进行数据关联的质量检查。

几种处理方式的技术对比如下:

4.质量监控

本实施例的质量监控组件主要包括质量规则解析、质量检查结果明细汇总以及异常业务数据查询几部分。具体如下:

(1)质量规则解析

为满足实时质量检查的需求,业务规则的采集通过kafka等消息服务队列获取,并在质量运行平台实时解析成质量规则,供质量规则引擎调用。

(2)质量明细汇总

在实时流式数据处理的方式下,原始业务数据是经过分片或分区的,质量规则引擎的处理结果粒度较细,因此在这种情况下,需要对检查结果明细按照时间、或检查对象等维度进行一定程度的汇总。处理的方式既可以使用spark的map、reduce按照文本方式进行汇总计算,也可以将检查结果明细导入数据库进行汇总(sql)或聚合(nosql)进行汇总计算。

(3)异常数据查询

异常数据是指质量核查生成的不符合质量规则的违法数据集合。异常数据的存储根据应用场景,分为以下两种方式:对于数据量较大且需要查询全部异常数据的应用场景,质量运行平台直接将异常数据保存在hdfs上,后者通过hdfs提供的数据访问接口,向质量监控平台提供数据查询服务;对于数据量较小、或仅需要查询样本异常数据的应用场景,可在异常数据生成的同时,通过dbconnector将异常数据直接写入质量监控平台的数据库服务器,从而提供异常数据查询服务。

本实施例提出了一种新型的、面向海量数据的、实时性的数据质量检查方法及系统,在这种方法及系统的支持下,一种全新的数据质量检查方法应运而生。这种模式可以实现海量数据的实时数据质量检查,提升数据质量管理系统的时效性与可用性。本实施例提出的通用质量规则引擎组件中,通过为不同数据类型进行标注、并配合不同的质量检查类型,动态选择处理方式,从而实现了一个自动的质量检查平台。本实施例提出的质量运行平台,在对企业原有基于sql的质量检查规则保持无缝兼容的同时,还可根据实际业务场景及应用需求进行扩展,不仅支持结构化数据,还支持非结构化数据、流式数据。本实施例提出的基于流式数据处理、质量规则实时解析等方式,通过运用消息服务、流式数据处理,具有应用解耦、流量消峰等特点与优势,更使得大数据平台环境下tb级业务数据实时质量检查的应用场景成为可能。

本发明实施例还提供了一种数据质量检查设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的数据质量检查方法中的步骤。

本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的数据质量检查方法中的步骤。

可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(applicationspecificintegratedcircuits,asic)、数字信号处理器(digitalsignalprocessing,dsp)、数字信号处理设备(dspdevice,dspd)、可编程逻辑设备(programmablelogicdevice,pld)、现场可编程门阵列(field-programmablegatearray,fpga)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。

对于软件实现,可通过执行本文所述功能的模块(例如过程、函数等)来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本发明实施例是参照根据本发明实施例的方法、用户设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理用户设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理用户设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理用户设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理用户设备上,使得在计算机或其他可编程用户设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程用户设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。

还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者用户设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者用户设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者用户设备中还存在另外的相同要素。

以上所述的是本发明的优选实施方式,应当指出对于本技术领域的普通人员来说,在不脱离本发明所述的原理前提下还可以作出若干改进和润饰,这些改进和润饰也在本发明的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1