一种层级性多元标签文本分类的方法和系统与流程

文档序号:27220480发布日期:2021-11-03 16:24阅读:280来源:国知局
一种层级性多元标签文本分类的方法和系统与流程

1.本技术涉及计算机领域,特别是涉及一种层级性多元标签文本分类的方法和系统。


背景技术:

2.在文本分类任务中,根据每个样本对应的标签数量,可分为单标签分类和多元标签分类。在多元标签分类任务中,根据标签的层级关系:可分为层级性多元标签分类和平行性多元标签分类,一般来说,多元标签分类都默认是平行的。例如,一部电影可能是“喜剧片”,又是“爱情片”,这样的种类标签是平行的,没有层级结构;而我们看的新闻有生活类、科技类、娱乐类,其中,娱乐类又会分为电影频道和电视剧频道等,这样的种类标签是有层级结构的,所以该类任务称为层级性多元标签分类。
3.在相关技术中,预训练采用hft

cnn模型,hft

cnn模型在训练时,特征会逐层传递并微调。cnn模型适用于捕捉局部特征,然而子类标签在做分类时,非常依赖区别于父类的差异性特征,而这些差异性特征对父类分类却是不必要的。若以父类的特征进行初始化,理论上是保存了父类特征,但那些影响子类标签的差异性特征却不容易学到,可能在父类标签学习的过程中就被过滤或者被弱化,降低了分类准确性。
4.目前针对相关技术中,在对层级性多远标签文本进行分类时,存在的分类准确率低、分类粗糙的问题,尚未提出有效的解决方案。


技术实现要素:

5.本技术实施例提供了一种层级性多元标签文本分类的方法和系统,以至少解决相关技术中在对层级性多远标签文本进行分类时,存在的分类准确率低、分类粗糙的问题。
6.第一方面,本技术实施例提供了一种层级性多元标签文本分类的方法,所述方法包括:
7.获取文本序列,并通过bert预训练模型对所述文本序列进行词向量初始化,得到文本矩阵;
8.通过双流模型对所述文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,所述双流模型包括全局流和局部流,全局流通过前馈神经网络层对所述文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过所述子类层的全局特征对所述文本序列进行全局预测,得到全局类别信息,局部流通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过所述当前子类层的局部特征对所述文本序列进行局部预测,得到每层的局部类别信息;
9.通过参数β动态调整模型对所述全局类别信息和所述每层的局部类别信息进行权衡计算,预测得到文本分类结果p
f

10.11.其中,

表示向量拼接,β为权衡值,p
g
表示全局类别信息,表示每层的局部类别信息,|h|表示层级数量。
12.在其中一些实施例中,所述通过前馈神经网络层对所述文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过所述子类层的全局特征对所述文本序列进行全局预测,得到全局类别信息包括:
13.通过第一层前馈神经网络对所述文本矩阵提取全局特征,得到第一子类全局特征向量
[0014][0015]
将所述第一子类全局特征向量与所述文本矩阵进行拼接,得到第一拼接向量,并通过第二层前馈神经网络对所述第一拼接向量提取全局特征,得到第二子类全局特征向量;
[0016]
依次类推,将得到的每层子类的全局特征向量与所述文本矩阵进行拼接,得到拼接向量,并通过当前层前馈神经网络对所述拼接向量提取全局特征,得到当前层子类全局特征向量
[0017][0018]
通过子类全局特征向量对所述文本序列进行全局预测,得到所述全局类别信息p
g

[0019][0020]
其中,x表示d维的文本矩阵,g表示global,h表示层级,w表示权重矩阵参数,b表示偏置参数,和σ都表示非线性激活函数,

表示向量拼接,|h|表示层级数量。
[0021]
在其中一些实施例中,所述通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过所述当前子类层的局部特征对所述文本序列进行局部预测,得到每层的局部类别信息包括:
[0022]
将所述子类层的全局特征线性映射为当前子类层所述外接前馈神经网络的输入向量,并进行特征提取,得到当前子类层的局部特征向量
[0023][0024]
其中,h表示层级,l表示local局部,w表示映射权重参数,b表示映射偏置参数,表示非线性激活函;
[0025]
通过所述当前子类层的局部特征对所述文本序列进行局部预测,得到所述每层的局部类别信息
[0026][0027]
其中,h表示层级,l表示local局部,w表示权重矩阵参数,b表示偏置参数,σ表示非线性激活函数。
[0028]
在其中一些实施例中,所述通过bert预训练模型对所述文本序列进行词向量初始化包括:
[0029]
通过所述bert预训练模型中融合注意力机制的transformer模块对所述文本序列进行特征提取,得到所述文本矩阵。
[0030]
在其中一些实施例中,在通过双流模型对所述文本矩阵进行特征提取和分类预测之前,所述方法包括:
[0031]
通过所述双流模型计算得到所述文本序列中每个类别真实标签的交叉熵损失,并通过神经网络反向传播进行参数优化,训练得到最优双流模型。
[0032]
在其中一些实施例中,在预测得到文本分类结果p
f
之后,所述方法包括:
[0033]
将所述文本分类结果p
f
中各个维度数值与预设阈值进行比较,在所述数值大于所述阈值的情况下,在所述文本序列上设置所述维度的类别标签。
[0034]
在其中一些实施例中,在通过bert预训练模型对所述文本序列进行词向量初始化之前,所述方法还包括:
[0035]
通过字的开源中文文本预训练bert模型,并结合相关语料信息对所述bert模型进行参数微调,得到所述bert预训练模型。
[0036]
第二方面,本技术实施例提供了一种层级性多元标签文本分类的系统,所述系统包括:
[0037]
获取模块,用于获取文本序列,并通过bert预训练模型对所述文本序列进行词向量初始化,得到文本矩阵;
[0038]
双流模块,用于通过双流模型对所述文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,所述双流模型包括全局流和局部流,全局流通过前馈神经网络层对所述文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过所述子类层的全局特征对所述文本序列进行全局预测,得到全局类别信息,局部流通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过所述当前子类层的局部特征对所述文本序列进行局部预测,得到每层的局部类别信息;
[0039]
预测模块,用于通过参数β动态调整模型对所述全局类别信息和所述每层的局部类别信息进行权衡计算,预测得到文本分类结果p
f

[0040][0041]
其中,

表示向量拼接,β为权衡值,pg表示全局类别信息,表示每层的局部类别信息,|h|表示层级数量。
[0042]
第三方面,本技术实施例提供了一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的层级性多元标签文本分类的方法。
[0043]
第四方面,本技术实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的层级性多元标签文本分类的方法。
[0044]
相比于相关技术,本技术实施例提供的层级性多元标签文本分类的方法,获取文本序列,并通过bert预训练模型对文本序列进行词向量初始化,得到文本矩阵;接着,通过双流模型对文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,双流模型包括全局流和局部流,全局流通过前馈神经网络层对文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过子类层的全局特征对文本序列进行全局预测,得到全局类别信息,局
部流通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过当前子类层的局部特征对文本序列进行局部预测,得到每层的局部类别信息;最后通过参数β动态调整模型对全局类别信息和每层的局部类别信息进行权衡计算,预测得到文本分类结果。
[0045]
本技术通过一种结合bert预训练模型的双流语义模型,在特征逐层传递的过程中,每一层都将原始的文本特征拼接到当前层,用于局部流对子类层级特征的学习,使得每个层级能直接从原始特征中捕捉用于当前层分类所需要的直接信息,这不仅丰富了网络深层的分类特征,并且充分利用多层级分类任务中的标签关系信息,通过全局流和局部流分别进行整体学习和层级局部学习,能有效获得更优的分类结果,提高文本分类的准确率,解决了在对层级性多远标签文本进行分类时,存在的分类准确率低、分类粗糙的问题。
附图说明
[0046]
此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
[0047]
图1是根据本技术实施例的层级性多元标签文本分类的方法的流程图;
[0048]
图2是根据本技术实施例的双流模型的网络结构流程图;
[0049]
图3是根据本技术实施例的层级性多元标签文本分类的系统的结构框图;
[0050]
图4是根据本技术实施例的电子设备的内部结构示意图。
具体实施方式
[0051]
为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。基于本技术提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本技术公开的内容相关的本领域的普通技术人员而言,在本技术揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本技术公开的内容不充分。
[0052]
在本技术中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本技术所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
[0053]
除非另作定义,本技术所涉及的技术术语或者科学术语应当为本技术所属技术领域内具有一般技能的人士所理解的通常意义。本技术所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本技术所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本技术所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连
接,而是可以包括电气的连接,不管是直接的还是间接的。本技术所涉及的“多个”是指大于或者等于两个。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。本技术所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
[0054]
本技术提供了一种层级性多元标签文本分类的方法,图1是根据本技术实施例的层级性多元标签文本分类的方法的流程图,如图1所示,该流程包括如下步骤:
[0055]
步骤s101,获取文本序列,并通过bert预训练模型对所述文本序列进行词向量初始化,得到文本矩阵;优选的,本实施例中通过bert预训练模型中融合注意力机制的transformer模块对文本序列进行特征提取,能更丰富地提取到原始文本中的语义特征,获得更好的文本矩阵向量,有利于加速模型的收敛并提高模型效果。
[0056]
在其中一些实施例中,在通过bert预训练模型对文本序列进行词向量初始化之前,通过字的开源中文文本预训练bert模型,并结合相关语料信息对bert模型进行参数微调,得到bert预训练模型。该bert预训练模型作为特征抽取器,用于获得输入双流模型的文本矩阵。
[0057]
步骤s102,通过双流模型对文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,双流模型包括全局流和局部流,全局流通过前馈神经网络层对文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过子类层的全局特征对文本序列进行全局预测,得到全局类别信息,局部流通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过当前子类层的局部特征对文本序列进行局部预测,得到每层的局部类别信息;
[0058]
优选的,本实施例中通过双流模型对文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,双流模型包括全局流和局部流;图2是根据本技术实施例的双流模型的网络结构流程图,如图2所示,全局流网络结构实现的具体流程如下所示:
[0059]
s1,将文本矩阵输入全局流的前馈神经网络层中,通过第一层前馈神经网络对文本矩阵进行全局特征提取,得到第一子类全局特征向量公式如下式1所示:
[0060][0061]
其中,其中,x表示d维的文本矩阵,|d|为文本特征的数量,g表示global,w表示权重矩阵参数,b表示偏置参数,表示非线性激活函数;
[0062]
s2,将上述的第一子类全局特征向量与原始文本矩阵进行拼接,得到第一拼接向量,该第一拼接向量是第二层前馈神经网络的输入,通过第二层前馈神经网络提取得到第二子类全局特征向量。本实施例中,由于随着网络层级的加深,输入特征相对于浅层的通用特征也会更抽象化,可能会逐渐丢失原始的特征,因此,通过拼接原始文本矩阵,使得深层网络的计算仍能保留丰富的语义特征,确保分类的准确度;
[0063]
s3,依次类推,将得到的每层子类的全局特征向量与原始文本矩阵进行拼接,得到拼接向量,并通过当前层前馈神经网络对该拼接向量提取全局特征,得到当前层子类全局特征向量公式如下式2所示:
[0064][0065]
其中,x表示d维的文本矩阵,g表示global,h表示层级,w表示权重矩阵参数,b表示偏置参数,表示非线性激活函数,

表示向量拼接;
[0066]
s4,通过上述得到的子类全局特征向量对文本序列进行全局预测,得到最终的全局类别信息p
g
,p
g
为|c|维的向量,其中,|c|为总类别数量,全局类别信息p
g
中每个维度表示输入的文本序列属于每个相应类别的概率,计算公式如下式3所示:
[0067][0068]
其中,x表示d维的文本矩阵,g表示global,h表示层级,w表示权重矩阵参数,b表示偏置参数,σ表示非线性激活函数,

表示向量拼接,|h|表示层级数量。
[0069]
进一步地,局部流网络结构实现的具体流程如下所示:
[0070]
s1,将子类层的全局特征线性映射为当前子类层外接前馈神经网络的输入向量,并通过该外接前馈神经网络进行特征提取,得到当前子类层的局部特征向量公式如下式4所示:
[0071][0072]
其中,h表示层级,l表示local局部,w表示映射权重参数,b表示映射偏置参数,表示非线性激活函;
[0073]
s2,通过步骤s1得到的当前子类层的局部特征对文本序列进行局部预测,得到每层的局部类别信息每层的局部类别信息是|c
h
|维的向量,其中,|c
h
|为第h层级包含的类别数量,局部类别信息中每个维度表示输入文本序列在第h层级属于每个类别的概率,计算公式如下式5所示:
[0074][0075]
其中,h表示层级,l表示local局部,w表示权重矩阵参数,b表示偏置参数,σ表示非线性激活函数。
[0076]
需要说明的是,上述提到的和σ都表示非线性激活函数,优选的,取relu激活函数,σ取sigmoid激活函数。
[0077]
具体地,如图2所示,本实施例中,将通过bert预训练模型词向量初始化后得到的文本矩阵输入双流模型中。首先,文本矩阵进入全局流的第一层神经网络进行全局特征提取,得到第一子类全局特征向量接着将与文本矩阵进行拼接得到第一拼接向量后,输入全局流的第二层神经网络进行全局特征提取,得到第二子类全局特征向量与此同时,经线性映射作为局部流的输入向量,进入局部流的第一层神经网络进行特征提取,得到局部特征向量后,通过进行局部预测,得到第一层的局部类别信息与上述同理,可依次得到全局流的第二子类全局特征向量通过得到局部流的局部特征向量和第二层的局部类别信息然后同理得到全局流的第三子类全局特征向量通过
得到局部流的局部特征向量和第三层的局部类别信息最后,通过与原始文本矩阵拼接得到的特征向量对文本序列进行全局预测,得到最终的全局类别信息p
g
;需要说明的是,图中的空心圆圈表示向量拼接。
[0078]
本实施例全局流中通过原始文本矩阵的拼接不仅直接丰富了深层网络的语义特征,且能使局部流中各层级能直接从原始特征中捕捉到当前层分类所需要的直接信息,获得每个层级的细类别特征信息,使得分类结果更加细化明确。此外,本实施例采用两种信息流的方式分别从全局和局部的角度捕获不同层级的特征信息,能提高文本分类的准确率;
[0079]
步骤s103,通过参数β动态调整模型对全局类别信息和每层的局部类别信息进行权衡计算,预测得到文本分类结果p
f
,p
f
为|c|维的向量,表示输入文本序列属于各类别的概率,计算公式如下式6所示:
[0080][0081]
其中,

表示向量拼接,β为权衡值,p
g
表示全局类别信息,表示每层的局部类别信息,|h|表示层级数量。
[0082]
优选的,本实施中采用β权衡全局流和局部流的重要程度,其中,β可设置为0.5,也可以根据先验知识设置。
[0083]
具体地,如图2所示,将通过步骤s102得到的局部流的三层局部类别信息进行拼接,得到与全局类别信息p
g
维度一致的类别信息向量,并将该拼接类别信息向量与全局类别信息向量p
g
进行加强求和,预测得到文本分类结果p
f
。其中,采用参数β权衡全局流和局部流的重要程度,对预测进行动态调整。
[0084]
在其中一些实施例中,在通过双流模型对所述文本矩阵进行特征提取和分类预测之前,通过双流模型计算得到文本序列中每个类别真实标签的交叉熵损失,并通过神经网络反向传播进行参数优化,训练得到最优双流模型。
[0085]
在其中一些实施例中,在预测得到文本分类结果p
f
之后,将文本分类结果p
f
中各个维度数值与预设阈值进行比较,在数值大于阈值的情况下,在文本序列上设置该维度对应的类别标签,实现对文本的多标签层级分类。
[0086]
通过上述步骤s101至步骤s103,本实施例中一种结合bert预训练模型的双流语义模型,在特征逐层传递的过程中,每一层都将原始的文本特征拼接到当前层,不仅能提取到具有丰富语义的全局流特征,获得全局类别信息,且用于局部流对子类层级特征的学习,使得每个层级能直接从原始特征中捕捉用于当前层分类所需要的直接信息,获得每个层级的细类别特征信息。通过上述全局流和局部流的整体学习和层级局部学习,解决了在对层级性多远标签文本进行分类时,存在的分类准确率低、分类粗糙的问题,有效提高了文本分类的准确率。
[0087]
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0088]
本实施例还提供了一种层级性多元标签文本分类的系统,该系统用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、

子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
[0089]
图3是根据本技术实施例的层级性多元标签文本分类的系统的结构框图,如图3所示,该系统包括获取模块31、双流模块32和预测模块33:
[0090]
获取模块31,用于获取文本序列,并通过bert预训练模型对文本序列进行词向量初始化,得到文本矩阵;双流模块32,用于通过双流模型对文本矩阵进行处理,分别得到全局类别信息和局部类别信息,其中,双流模型包括全局流和局部流,全局流通过前馈神经网络层对文本矩阵逐层提取全局特征,得到子类层的全局特征,并通过子类层的全局特征对文本序列进行全局预测,得到全局类别信息,局部流通过每层外接的前馈神经网络对当前子类层的全局特征进行特征提取,得到当前子类层的局部特征,并通过当前子类层的局部特征对文本序列进行局部预测,得到每层的局部类别信息;预测模块33,预测模块,用于通过参数β动态调整模型对全局类别信息和每层的局部类别信息进行权衡计算,预测得到文本分类结果。
[0091]
通过上述系统,本实施例中一种结合bert预训练模型的双流语义模型,在特征逐层传递的过程中,每一层都将原始的文本特征拼接到当前层,不仅能提取到具有丰富语义的全局流特征,获得全局类别信息,且用于局部流对子类层级特征的学习,使得每个层级能直接从原始特征中捕捉用于当前层分类所需要的直接信息,获得每个层级的细类别特征信息。通过上述全局流和局部流的整体学习和层级局部学习,解决了在对层级性多远标签文本进行分类时,存在的分类准确率低、分类粗糙的问题,有效提高了文本分类的准确率。
[0092]
需要说明的是,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
[0093]
此外,需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
[0094]
本实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
[0095]
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
[0096]
另外,结合上述实施例中的层级性多元标签文本分类的方法,本技术实施例可提供一种存储介质来实现。该存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例中的任意一种层级性多元标签文本分类的方法。
[0097]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种层级性多元标签文本分类的方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设
备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
[0098]
在一个实施例中,图4是根据本技术实施例的电子设备的内部结构示意图,如图4所示,提供了一种电子设备,该电子设备可以是服务器,其内部结构图可以如图4所示。该电子设备包括通过内部总线连接的处理器、网络接口、内存储器和非易失性存储器,其中,该非易失性存储器存储有操作系统、计算机程序和数据库。处理器用于提供计算和控制能力,网络接口用于与外部的终端通过网络连接通信,内存储器用于为操作系统和计算机程序的运行提供环境,计算机程序被处理器执行时以实现一种层级性多元标签文本分类的方法,数据库用于存储数据。
[0099]
本领域技术人员可以理解,图4中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0100]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0101]
本领域的技术人员应该明白,以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0102]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1