图像处理方法、装置、系统和计算机可读存储介质与流程

文档序号:31709397发布日期:2022-10-04 16:29阅读:61来源:国知局
图像处理方法、装置、系统和计算机可读存储介质与流程

1.本公开涉及计算机技术领域,特别涉及一种图像处理方法、装置、系统和计算机可读存储介质。


背景技术:

2.vcm(video coding for machines,机器视觉编码)专家组的目标是定义一种从视频中提取的压缩的视频或特征码流,可服务用于多种机器任务,同时保障高压缩效率和机器智能任务性能,服务于机器视觉和人机混合视觉应用。
3.面向机器视觉的深度学习特征编码可以首先确定编码对象位于神经网络的层,通过确定的神经网络的层输出特征编码,再将特征编码用于后续的各种视频处理的任务。


技术实现要素:

4.发明人发现:神经网络往往包括很多层,并且需要对大量数据进行处理,如果能够对神经网络中数据进行适当的压缩,可以提高计算效率。但是数据的压缩不能使神经网络的性能过分降低,需要满足任务需求。针对面向机器视觉的深度学习特征编码,需要在首先满足机器视觉任务的前提下,再提高特征编码的效率。
5.本公开所要解决的一个技术问题是:如何提高神经网络的计算效率并且满足任务需求。
6.根据本公开的一些实施例,提供的一种图像处理方法,包括:针对神经网络中多个备选层中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值;将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值;在神经网络的评价指标值达到预设值的情况下,确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标;根据各个备选层的参考指标选取一个备选层作为待压缩层,以便在使用神经网络的过程中,将待压缩层输出的特征值进行压缩。
7.在一些实施例中,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值包括:根据当前的比特位深值,将该备选层输出的图像的特征值进行压缩,得到压缩的特征值,其中,当前的比特位深值大于或等于预设最小值;在确定神经网络的评价指标值之后,该方法还包括:在神经网络的评价指标值未达到预设值的情况下,将当前的比特位深值增加预设步长,作为当前的比特位深值;重新由根据当前的比特位深值,将该备选层输出的图像的特征值进行压缩开始执行,直至当前的比特位深值达到预设最大值,或者神经网络的评价指标值达到预设值。
8.在一些实施例中,确定该备选层对应的压缩的特征值的数据量包括:将该备选层对应的每个图像的压缩的特征值的数据量求和或者取平均值,作为该备选层对应的压缩的特征值的数据量。
9.在一些实施例中,根据各个备选层的参考指标选取一个备选层作为待压缩层包括:根据各个备选层的参考指标,选取参考指标最小的一个备选层作为待压缩层。
10.在一些实施例中,在神经网络为特征金字塔网络fpn的情况下,备选层从第一次进入fpn横向连接的一层之前的各层中选取。
11.在一些实施例中,该方法还包括:将待处理的图像输入神经网络;在待处理的图像经过待压缩层之后,对待压缩层输出的待处理的图像的特征值按照预设方式进行压缩,得到压缩的特征值;将压缩的特征值输入待压缩层之后连接的层,得到神经网络的输出结果。
12.在一些实施例中,神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端,待压缩层之后连接的层被部署在解码端;将压缩的特征值输入待压缩层之后连接的层包括:编码端将压缩的特征值进行编码后发送至解码端;解码端进行解码后将压缩的特征值输入待压缩层之后连接的层。
13.在一些实施例中,编码端位于边缘计算节点,解码端位于云端。
14.在一些实施例中,神经网络的评价指标值包括:准确率、精确率、召回率或f值。
15.在一些实施例中,根据当前的比特位深值,将该备选层输出的图像的特征值进行压缩,得到压缩的特征值包括:根据该备选层输出的图像的特征值和当前的比特位深值确定当前的量阶;根据当前的量阶将该备选层输出的图像的特征值进行量化;将量化后的值与量阶相乘,得到压缩的特征值。
16.根据本公开的另一些实施例,提供的一种图像处理装置,包括:压缩模块,用于针对神经网络中多个备选层中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值;评价指标确定模块,用于将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值;参考指标确定模块,用于在神经网络的评价指标值达到预设值的情况下,确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标;选取模块,用于根据各个备选层的参考指标选取一个备选层作为待压缩层,以便在使用神经网络的过程中,将待压缩层输出的特征值进行压缩。
17.在一些实施例中,该方法还包括:图像处理模块,用于将待处理的图像输入神经网络;在待处理的图像经过待压缩层之后,对待压缩层输出的待处理的图像的特征值按照预设方式进行压缩,得到压缩的特征值;将压缩的特征值输入待压缩层之后连接的层,以便得到神经网络的输出结果。
18.根据本公开的又一些实施例,提供的一种图像处理装置,包括:处理器;以及耦接至处理器的存储器,用于存储指令,指令被处理器执行时,使处理器执行如前述任意实施例的图像处理方法。
19.根据本公开的再一些实施例,提供的一种非瞬时性计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意实施例的图像处理方法。
20.根据本公开的又一些实施例,提供的一种图像处理系统,包括:编码端以及解码端,其中,编码端包括前述任意实施例的图像处理装置,神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端,待压缩层之后连接的层被部署在解码端。
21.本公开中针对神经网络中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值,压缩的特征值在神经网络的后续各层经过处理后,可以得到用于评价神经网络的性能的评价指标值。如果神经网络的评价指标值达到预设值,则确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标,根据各个备选层的参考指标选取一个备选层作为待压缩层。在后续使用神经网络的过程中,则将待压缩层
输出的图像的特征值进行压缩再输入神经网络后续各层进行处理。本公开的方法可以在神经网络的评价指标满足任务需求的情况下,对神经网络处理的图像的数据进行压缩,提高神经网络的计算效率。本公开的方法应用于面向机器视觉的深度学习特征编码的情况下,可以在满足机器视觉任务的前提下,提高视频数据的压缩率和编码效率,并且节省计算负载。
22.通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
23.为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
24.图1示出本公开的一些实施例的图像处理方法的流程示意图。
25.图2示出本公开的另一些实施例的图像处理方法的流程示意图。
26.图3示出本公开的又一些实施例的图像处理方法的流程示意图。
27.图4示出本公开的一些实施例的图像处理装置的结构流程示意图。
28.图5示出本公开的另一些实施例的图像处理装置的结构流程示意图。
29.图6示出本公开的又一些实施例的图像处理装置的结构流程示意图。
30.图7示出本公开的一些实施例的图像处理系统的结构流程示意图。
具体实施方式
31.下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
32.本公开提出一种图像处理方法,下面结合图1~3进行描述。
33.图1为本公开图像处理方法一些实施例的流程图。如图1所示,该实施例的方法包括:步骤s102~s108。
34.在步骤s102中,针对神经网络中多个备选层中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值。
35.首先可以将多个图像(例如,视频中的图像)输入神经网络,经过各个层会得到各个层输出的特征值,特征值可以以特征张量的形式表示。备选层可以是根据实际需求选取的输入层和输出层之间的多个层。在一些实施例中,在神经网络为fpn(特征金字塔网络)的情况下,备选层从第一次进入fpn横向连接的一层之前的各层中选取。
36.在fpn中卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。考虑到编码侧计算复杂度,以及fpn网络会进行不同层特征融合,面向机器视觉编码
的基于fpn特征提取层可以位于自底向上前向网络中第一次进入fpn横向连接的层数之前。
37.在一些实施例中,根据当前的比特位深值(bit depth,bd),将该备选层输出的图像的特征值进行压缩,得到压缩的特征值,当前的比特位深值大于或等于预设最小值,且小于或等于预设最大值。例如,bd的取值范围为3~10的整数,不限于所举示例。可以根据当前的bd值对该备选层输出的图像的特征值进行线性量化和反量化得到压缩的特征值。压缩的方式不限于线性量化和反量化,可以根据实际需求进行选择,例如,矢量量化等,不限于所举示例。后续实施例中,将描述如何确定当前的比特位深值,以及比特位深值动态调整的过程。
38.在一些实施例中,根据该备选层输出的图像的特征值和当前的比特位深值确定当前的量阶;根据当前的量阶将该备选层输出的图像的特征值进行量化;将量化后的值与量阶相乘,得到压缩的特征值。例如,确定该备选层输出的图像的特征值的最大值a和最小值b,将量化级数确定为m=2
bd
,即bd值作为指数,2为底数。量阶为δ=(a-b)/m。将该备选层输出的图像的特征值除以量阶,得到的值进行向下取整,则得到量化后的值,将量化后的值与量阶相乘,得到压缩的特征值。也可以采用其他方法对特征值进行压缩,不限于所举示例。
39.在步骤s104中,将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值。
40.压缩后的特征值可以继续输入该备选层之后连接的层直至由神经网络的输出层输出结果,根据输出结果可以确定神经网络的评价指标值。在一些实施例中,神经网络的评价指标值包括:准确率、精确率、召回率或f值,不限于所举示例。例如,在机器视觉任务评价中,对于更关注误检的情况,可以选择精确率作为评价指标,对于更关注漏检的情况,可以选择召回率作为评价指标,对于误检和漏检都比较关注的情况,可以选择f值作为评价指标。
41.准确率、精确率、召回率和f值这四个指标需要用到以下4个基准统计数值:tp(true positive)把正样本的判断为正样本的数目;fn(false negative)把正样本的错判为负样本的数目;fp(false positive)把负样本的错判为正样本的数目;tn(true negative)把负样本的判为负样本的数目。精确率表示的是判断为正样本的判断中正确的概率,因此精确率为:
[0042][0043]
准确率是指有在所有的判断中判断正确的概率:
[0044][0045]
召回率表示的是正样本中被判断正确的概率。对于正样本的判断有两种可能,一种是把正样本判断为正样本(tp),另一种是把正样本判断为负样本(fn)。因此,召回率表示为:
[0046][0047]
f值为精确率和召回率的调和平均值:
[0048]
[0049]
在步骤s106中,在神经网络的评价指标值达到预设值的情况下,确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标。
[0050]
在一些实施例中,将该备选层对应的每个图像的压缩的特征值的数据量求和或者取平均值,作为该备选层对应的压缩的特征值的数据量。
[0051]
在步骤s108中,根据各个备选层的参考指标选取一个备选层作为待压缩层,以便在使用神经网络的过程中,将待压缩层输出的特征值进行压缩。
[0052]
在一些实施例中,根据各个备选层的参考指标,选取参考指标最小的一个备选层作为待压缩层。在一些实施例中,神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端,待压缩层之后连接的层被部署在解码端。例如,编码端位于边缘计算节点(例如传感器),解码端位于云端(例如智能平台)。针对面向机器视觉的深度学习特征编码,由编码端提取视频图像的特征编码,进行压缩后发送至解码端进行解码和后续的处理。编码端和解码端分别部署的方式,可以在边缘节点采集视频后进行特征编码的计算,之后传输到云端进行后续处理。根据上述实施例的方法选取了参考指标最小的一个备选层作为待压缩层,尽量减少了编码端和解码端之间传输的数据量,减少了传输时延和占用的带宽资源。
[0053]
上述实施例中针对神经网络中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值,压缩的特征值在神经网络的后续各层经过处理后,可以得到用于评价神经网络的性能的评价指标值。如果神经网络的评价指标值达到预设值,则确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标,根据各个备选层的参考指标选取一个备选层作为待压缩层。在后续使用神经网络的过程中,则将待压缩层输出的图像的特征值进行压缩再输入神经网络后续各层进行处理。上述实施例的方法可以在神经网络的评价指标满足任务需求的情况下,对神经网络处理的图像的数据进行压缩,提高神经网络的计算效率。上述实施例的方法应用于面向机器视觉的深度学习特征编码的情况下,可以在满足机器视觉任务的前提下,提高视频数据的压缩率和编码效率,并且节省计算负载。
[0054]
下面结合图2描述本公开图像处理方法的另一些实施例。
[0055]
图2为本公开图像处理方法另一些实施例的流程图。如图2所示,该实施例的方法包括:步骤s202~s224。
[0056]
在步骤s202中,获取神经网络中的备选层列表和多张图像,初始化当前的比特位深值为预设最小值。
[0057]
在步骤s204中,选取第一个备选层作为当前备选层。
[0058]
在步骤s206中,将图像输入神经网络。
[0059]
在步骤s208中,根据当前的比特位深值,将当前备选层输出的图像的特征值进行压缩,得到压缩的特征值。
[0060]
在步骤s210中,将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值。
[0061]
在步骤s212中,判断神经网络的评价指标值是否达到预设值,如果否,则执行步骤s214,否则执行步骤s218,
[0062]
在步骤s214中,判断当前的比特位深值是否达到预设最大值,如果否,则执行步骤s216,否则执行步骤s220。
[0063]
在步骤s216中,将当前的比特位深值增加预设步长,作为当前的比特位深值,并返回步骤s208重新开始执行。
[0064]
例如,将当前bd值加1。
[0065]
在步骤s218中,确定当前备选层对应的压缩的特征值的数据量,作为当前备选层的参考指标。
[0066]
在步骤s220中,判断当前备选层是否为备选层列表中最后一个备选层,如果否,则执行步骤s222,否则执行步骤s224。
[0067]
在步骤s222中,选取下一个备选层作为当前特征层,将当前的比特位深值赋值为预设最小值,并返回步骤s206重新开始执行。
[0068]
在步骤s224中,根据各个备选层的参考指标选取一个备选层作为待压缩层。
[0069]
下面以神经网络为resne101为例描述一个具体应用例。resne101为fpn网络,进入横向连接的特征层为conv2_x/conv3_x/conv4_x/conv5_x输出层,因此,备选层可以选取conv2_x输出层之前的层。
[0070]
1.随机抽取m张图像,确定备选层列表为(conv2_x_maxpool,conv2_x_block1,conv2_x_block2,conv2_x_block3),提取备选层的特征值,选定召回率作为网络的评价指标a,a对应的预设值thres设定为90%。
[0071]
2.备选层的序号i初始化为0,m张图像输入resne101。
[0072]
3.对第i个备选层输出的特征值根据不同bd值进行压缩,其中bd取值范围为3到10的整数。对压缩后的特征值输入后续各层得到的评价指标值a。
[0073]
4.当评价指标a达到预设值thres,即a
l=i,bd=d
≥90%时停止计算,计算当前备选层当前bd下的压缩的特征值的数据量,作为参考指标,例如采用以下公式计算。
[0074][0075]
5.当第i个备选层对应的评价指标值达到预设值,记录该备选层的参考指标q
l=i,bd=d
,bd值为d;否则不记录该层信息。
[0076]
6.序号i加1,若已达到list长度4,进入第7步;若未达到list长度4,进入第3步。
[0077]
7.比较各个备选层的参考指标,提取参考指标最小的层作为特征提取层,并获取对应的bd值。
[0078]
下面结合图3描述本公开图像处理方法的又一些实施例。
[0079]
图3为本公开图像处理方法又一些实施例的流程图。如图3所示,该实施例的方法包括:步骤s302~s306。
[0080]
在步骤s302中,将待处理的图像输入神经网络。
[0081]
待处理的图像例如为面向机器视觉的深度学习特征编码中视频的图像。
[0082]
在步骤s304中,在待处理的图像经过待压缩层之后,对待压缩层输出的待处理的图像的特征值按照预设方式进行压缩,得到压缩的特征值。
[0083]
例如,前述实施例中描述了待压缩层对应的bd值会被记录下来,对待压缩层输出的待处理的图像的特征值根据记录的bd值进行压缩,具体压缩方法可以参考前述实施例。
[0084]
在步骤s306中,将压缩的特征值输入待压缩层之后连接的层,得到神经网络的输出结果。
[0085]
在一些实施例中,神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端,待压缩层之后连接的层被部署在解码端。例如,编码端位于边缘计算节点,解码端位于云端。编码端将压缩的特征值进行编码(例如,采用熵编码转换为二进制)后发送至解码端;解码端进行解码后将压缩的特征值输入待压缩层之后连接的层。即编码端采集视频图像完成面向机器视觉的深度学习特征编码后,进行压缩再发送至解码端进行后续的视频处理。
[0086]
本公开还提供一种图像处理装置,下面结合图4进行描述。
[0087]
图4为本公开图像处理装置的一些实施例的结构图。如图4所示,该实施例的装置40包括:压缩模块410,评价指标确定模块420,参考指标确定模块430,选取模块440。
[0088]
压缩模块410用于针对神经网络中多个备选层中每个备选层,将该备选层输出的图像的特征值按照预设方式进行压缩,得到压缩的特征值。
[0089]
在一些实施例中,在神经网络为特征金字塔网络fpn的情况下,备选层从第一次进入fpn横向连接的一层之前的各层中选取。
[0090]
评价指标确定模块420用于将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值。
[0091]
在一些实施例中,神经网络的评价指标值包括:准确率、精确率、召回率或f值。
[0092]
在一些实施例中,压缩模块410用于根据当前的比特位深值,将该备选层输出的图像的特征值进行压缩,得到压缩的特征值,其中,当前的比特位深值大于或等于预设最小值。评价指标确定模块420还用于在神经网络的评价指标值未达到预设值的情况下,将当前的比特位深值增加预设步长,作为当前的比特位深值返回值压缩模块410,压缩模块410用于重新由根据当前的比特位深值,将该备选层输出的图像的特征值进行压缩开始执行,直至当前的比特位深值达到预设最大值,或者神经网络的评价指标值达到预设值。
[0093]
在一些实施例中,压缩模块410用于根据该备选层输出的图像的特征值和当前的比特位深值确定当前的量阶;根据当前的量阶将该备选层输出的图像的特征值进行量化;将量化后的值与量阶相乘,得到压缩的特征值。
[0094]
参考指标确定模块430用于在神经网络的评价指标值达到预设值的情况下,确定该备选层对应的压缩的特征值的数据量,作为该备选层的参考指标。
[0095]
在一些实施例中,将该备选层对应的每个图像的压缩的特征值的数据量求和或者取平均值,作为该备选层对应的压缩的特征值的数据量。
[0096]
选取模块440用于根据各个备选层的参考指标选取一个备选层作为待压缩层,以便在使用神经网络的过程中,将待压缩层输出的特征值进行压缩。
[0097]
在一些实施例中,选取模块440用于根据各个备选层的参考指标,选取参考指标最小的一个备选层作为待压缩层。
[0098]
在一些实施例中,图像处理装置40还包括:图像处理模块450,用于将待处理的图像输入神经网络;在待处理的图像经过待压缩层之后,对待压缩层输出的待处理的图像的特征值按照预设方式进行压缩,得到压缩的特征值;将压缩的特征值输入待压缩层之后连接的层,以便得到神经网络的输出结果。
[0099]
在一些实施例中,神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端,待压缩层之后连接的层被部署在解码端;编码端包括图像处理装置40。图像处理模块
450,用于将压缩的特征值进行编码后发送至解码端,以便解码端进行解码后将压缩的特征值输入待压缩层之后连接的层。
[0100]
在一些实施例中,编码端位于边缘计算节点,解码端位于云端。
[0101]
本公开的实施例中的图像处理装置可各由各种计算设备或计算机系统来实现,下面结合图5以及图6进行描述。
[0102]
图5为本公开图像处理装置的一些实施例的结构图。如图5所示,该实施例的装置50包括:存储器510以及耦接至该存储器510的处理器520,处理器520被配置为基于存储在存储器510中的指令,执行本公开中任意一些实施例中的图像处理方法。
[0103]
其中,存储器510例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(boot loader)、数据库以及其他程序等。
[0104]
图6为本公开图像处理装置的另一些实施例的结构图。如图6所示,该实施例的装置60包括:存储器610以及处理器620,分别与存储器510以及处理器520类似。还可以包括输入输出接口630、网络接口640、存储接口650等。这些接口630,640,650以及存储器610和处理器620之间例如可以通过总线660连接。其中,输入输出接口630为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口640为各种联网设备提供连接接口,例如可以连接到数据库服务器或者云端存储服务器等。存储接口650为sd卡、u盘等外置存储设备提供连接接口。
[0105]
本公开还提供一种图像处理系统,下面结合图7进行描述。
[0106]
图7为本公开图像处理系统的一些实施例的结构图。如图7所示,该实施例的系统7包括:编码端72,以及解码端74,编码端72包括图像处理装置40/50/60。神经网络中待压缩层以及待压缩层之前连接的各层被部署在编码端72,待压缩层之后连接的层被部署在解码端74。
[0107]
在一些实施例中,编码端72位于边缘计算节点,解码端74位于云端。评价指标确定模块420用于将压缩的特征值发送至解码端74,解码端74将压缩的特征值输入该备选层之后连接的层,确定神经网络的评价指标值并返回至评价指标确定模块420。
[0108]
本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0109]
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0110]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指
令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0111]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0112]
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1