本公开涉及数据分类领域,尤其涉及一种基于有监督主题模型的文本分类方法及系统。
背景技术:
:本部分的陈述仅仅是提供了与本公开相关的
背景技术:
信息,不必然构成在先技术。文本表示是文本挖掘的重要步骤,目前最广泛的文本表示方法是词袋法(bag-of-word,bow)。词袋法将一篇文本看作是词的集合,并假设每个词的出现是独立的,不依赖于其它词,且忽略词序、句法等信息。基于bow,一篇文本用一个n维向量表示,每一维对应一个词,通常是该词的频度相关的权重,这就是最常用的是向量空间模型(vectorspacemodel,vsm)。由于自然语言的复杂性,文本表示存在“维数灾难”、“稀疏性”、“语义丢失”等诸多问题。词袋法忽略词序、句法等信息,使得词的语义信息难以抽取和量化,文本的语义表示目前仍是非常困难的。mikolov等人提出的word2vec模型,是一种词向量的训练方法,利用词的上下文信息将一个词转化成一个低维实数向量,越相似的词在向量空间中越接近。word2vec模型训练输出的是每个词的词向量,文本的所有词的词向量形成文本向量。基于word2vec模型训练的词向量文本输入深度神经网络,成功用于中文分词、postagging、情感分类、句法依存关系等方面。word2vec模型能够解决“稀疏性”问题,虽然word2vec能够量化词与词的相似度,但并不能解决文本的“语义丢失”和“维度灾难”问题。主题模型(topicmodel)是可用于解决“维度灾难”、“稀疏性”的一种方法,而且能够在一定程度上抽取词的语义信息。主题模型起源于隐性语义索引(latentsemanticindexing,lsi),以及由hofmann提出的概率隐性语义索引(probabilisticlatentsemanticindexing,plsi)。在plsi基础上,blei等人提出了lda(latentdirichletallocation)主题模型。lda中主题看作是词的概率分布,语义相近的词,通过隐含主题建立关联,能够从文本中抽取出语义信息,将文本表示从高维词空间变换到低维主题空间。主题模型直接或扩展使用在自然语言处理领域,如聚类和分类、词义消歧、情感分析等,图像处理领域的目标发现与定位、图像分割等任务。lda主题模型将文本表示从高维的词空间变换到低维的主题空间,然后采用knn、naivebayesian、svm等算法直接分类,其效果并不好。原因在于lda主题模型是无监督学习,不考虑文本的类别,并没有利用训练文本已标注的类别这一重要信息。现有的改进方法,如li等人提出了labled-lda模型,发明人发现该模型针对每类文档训练一个lda模型,需要估计的参数增加了多倍,增加了模型的复杂性。技术实现要素:根据本公开的一个或多个实施例的一个方面,提供一种基于有监督主题模型的文本分类方法,其能够识别主题-类别之间的语义关系,建立主题与类别的精确映射。本公开的一个或多个实施例,提供的一种基于有监督主题模型的文本分类方法,包括:构建slda-tc文本分类模型,slda-tc文本分类模型的训练文档集的每个文档带有类别标签;slda-tc文本分类模型中需要估计的参数不仅包括文本-主题概率分布、主题-词概率分布,还包括主题-类别概率分布;训练slda-tc文本分类模型,按照slda-tc-gibbs算法进行slda-tc模型参数估计;其中,按照slda-tc-gibbs算法进行slda-tc模型参数估计的过程为:对每个词的隐含主题进行采样,且只从与该词所在文本类别标签相同的其它训练文本中进行隐含主题采样;在确定每个词的隐含主题之后,通过统计主题-词、文档-主题、主题-类别的频次,计算得到文本-主题概率分布、主题-词概率分布和主题-类别概率分布,进而建立出主题与类别之间的准确映射;待测文本主题推断和分类;将待测文本输入至训练完成的slda-tc文本分类模型,首先对待测文档每个词进行隐含主题采样;然后推断待测文本的主题概率分布;根据待测文档的主题分布和slda-tc模型的主题-类别分布,输出待测文本的类别标签。在一个或多个实施例中,文本-主题概率分布、主题-词概率分布和主题-类别概率分布均服从dirichlet分布。在一个或多个实施例中,通过多次迭代训练生成用于分类的slda-tc模型,迭代结束,通过js散度评估主题之间的相似度、通过slda-tc的主题-类别分布参数评估主题与类别之间的语义相关度。在一个或多个实施例中,slda-tc文本分类模型的分类结果的评价指标,包括宏平均分类精度(macro-precision)、宏平均召回率(macro-recall)和宏平均f1值(macro-f1)。本公开的一个或多个实施例,还提供了一种文本分类系统,包括文本输入装置、控制器和显示装置,所述控制器包括存储器和处理器,所述存储器存储有计算机程序,所述程序被处理器执行时能够实现以下步骤:构建slda-tc文本分类模型,slda-tc文本分类模型的训练文档集的每个文档带有类别标签;slda-tc文本分类模型中需要估计的参数不仅包括文本-主题概率分布、主题-词概率分布,还包括主题-类别概率分布;训练slda-tc文本分类模型,按照slda-tc-gibbs算法进行slda-tc模型参数估计;其中,按照slda-tc-gibbs算法进行slda-tc模型参数估计的过程为:对每个词的隐含主题进行采样,且只从与该词所在文本类别标签相同的其它训练文本中进行隐含主题采样;在确定每个词的隐含主题之后,通过统计主题-词、文档-主题、主题-类别的频次,计算得到文本-主题概率分布、主题-词概率分布和主题-类别概率分布,进而建立出主题与类别之间的准确映射;待测文本主题推断和分类;将待测文本输入至训练完成的slda-tc文本分类模型,首先对待测文档每个词进行隐含主题采样;然后推断待测文本的主题概率分布;根据待测文档的主题分布和slda-tc模型的主题-类别分布,输出待测文本的类别标签。本公开的有益效果是:本公开的文本分类方法和系统,通过构建及训练完成的slda-tc文本分类模型,利用文本-主题概率分布、主题-词概率分布和主题-类别概率分布,抽取词与主题、文档与主题、主题与类别之间隐含的语义信息映射,而且主题数量k只需取略大于类别数量c,不仅提高了文本分类精度,而且能够提高时间效率。附图说明构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。图1为本公开的一种slda-tc文本分类方法流程图。图2为lda主题模型。图3为slda-tc文本分类模型。图4(a)为20news-rec数据集c=4,k=8时,slda-tc与lda-tc、svm的分类结果的macro-precision比较。图4(b)为20news-rec数据集c=4,k=8时,slda-tc与lda-tc、svm的分类结果的macro-recall比较。图4(c)为20news-rec数据集c=4,k=8时,slda-tc与lda-tc、svm的分类结果的macro-f1比较。图5(a)为sogou数据集c=5,k=8时,slda-tc与lda-tc、svm的分类结果的macro-precision比较。图5(b)为sogou数据集c=5,k=8时,slda-tc与lda-tc、svm的分类结果的macro-recall比较。图5(c)为sogou数据集c=5,k=8时,slda-tc与lda-tc、svm的分类结果的macro-f1比较。图6(a)为20news-sci数据集c=4,当k=90时,slda-tc与lda-tc、svm的分类结果的macro-precision比较。图6(b)为20news-sci数据集c=4,当k=90时,slda-tc与lda-tc、svm的分类结果的macro-recall比较。图6(c)为20news-sci数据集c=4,当k=90时,slda-tc与lda-tc、svm的分类结果的macro-f1比较。图7(a)为20news-talk数据集c=3,k=90时,slda-tc与lda-tc、svm的分类结果的macro-precision比较。图7(b)为20news-talk数据集c=3,k=90时,slda-tc与lda-tc、svm的分类结果的macro-recall比较。图7(c)为20news-talk数据集c=3,k=90时,slda-tc与lda-tc、svm的分类结果的macro-f1比较。具体实施方式应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属
技术领域:
的普通技术人员通常理解的相同含义。需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。术语解释:dirichlet分布:狄利克雷分布是一组连续多变量的概率分布,是多变量普遍化的β分布,狄利克雷分布常作为贝叶斯统计的先验概率。gibbssampling方法:吉布斯采样,是基于马尔科夫蒙特卡洛(mcmc)的一种算法,用于在难以直接采样时从某一多变量概率分布中近似抽取样本序列。lda-tc:是指先通过lda主题模型抽取一定数目的主题,然后根据lda模型进行分类的方法。svm:supportvectormachine,指的是支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。macro-precision:宏平均分类精度。macro-recall:宏平均召回率。macro-f1:宏平均f1值。图1为本公开的一种基于有监督主题模型的文本分类方法流程图。如图1所示,本实施例的一种文本分类方法,包括:s110:构建slda-tc文本分类模型;不同于无监督的lda模型,slda-tc文本分类模型的训练文档集的每个文档带有类别标签;slda-tc文本分类模型中待估计的参数包括文本-主题概率分布、主题-词概率分布和主题-类别概率分布。如图2所示,lda主题模型的文本集合m表示文本数,k表示主题数。模型有两个参数θm和其中θm表示第m篇文本的主题概率分布,表示主题k的词概率分布,wm是第m篇文本的词袋向量,nm表示第m篇文本的长度,wm,n表示第m篇文本中第n个词,zm,n是分配给wm,n的主题。θm和服从dirichlet分布,作为多项式参数分别生成主题、词,α、β是相应的dirichlet分布的先验参数。lda主题模型不考虑每个文档的类别。如图3所示,与lda不同,slda-tc模型的训练文本集每篇文本wm存在一个可观察的类别号ym∈[1,c],c表示类别数,假设类别号服从与文本主题概率相关的多项式分布。wm,n和ym是可观察的,zm,n是隐含主题。slda-tc模型除了参数和θm,本公开引入了一个新参数δk,表示第k个主题的类别概率分布。θm、和δk服从dirichlet分布,作为多项式参数分别生成主题、词和类别,α、β和γ是相应的dirichlet分布的先验参数。s120:slda-tc主题模型参数估计,训练slda-tc文本分类模型,建立主题与类别之间的映射。lda采用gibbssampling算法估计的参数是和θ,slda-tc模型需要估计的参数是θ和δ。本公开在gibbssampling方法的基础上提出了slda-tc-gibbs算法,不直接计算θm、和δk,先对每个词的隐含主题进行采样,在确定每个词的隐含主题之后,θm、和δk可以统计频次计算得到。gibbssampling算法每次对词w一个隐变分量zi=k进行采样,保持z的其它词分量即不变,计算如式(1)。slda-tc-gibbs算法每次对词wi=t的一个隐变分量zi=k进行采样时,保持z的其它词分量即不变,同时也保持不变,计算如式(2)。其中,w=(w1,...,wm)是所有文档词向量,z=(z1,...,zv)是主题向量(v是词字典长度),y=(y1,...ym)是类别向量。假设第i个单词wi=t,zi表示第i个单词对应的主题变量,表示剔除向量z的第i项。同时假设第i个单词wi=t所在文档是第m篇文档wm,且其类标号为ym=j,j∈[1,c],那么表示剔除向量y的第m项。表示主题k分配给词v的次数,βv表示词v的dirichlet先验。表示文档m分配给主题z的次数,αz是主题z的dirichlet先验。表示剔除z的第i项(即第i个词wi=t),主题k分配给词t的次数,βv是词t的dirichlet先验。表示剔除第m项(第m篇文档wm的类标记为ym=j),主题k分配为类别j的文档数,γj表示类别j的dirichlet先验参数。对比式(1),在式(2)左边引入右边增加一项对第m篇文档中词的隐含主题采样进行了限制,即只从与第m篇文档类别相同的其它训练文档进行隐含主题采样,因为相同类别的文档的主题分布是相似的,所以对有类别标注时公式(2)更合理。本公开只生成一个slda-tc模型,只需估计一组参数θ和δ。公式(2)的推导证明如下:证明:给定训练文档集令w=(w1,...,wm),y=(y1,...ym),z=(z1,...,zv),slda-tc概率模型的联合分布如(3)式。p(w,z,y|α,β,γ)=p(w|z,β)p(z|α)p(y|z,γ)(3)由dirichlet分布可知:其中,γ(·)是gamma函数。根据slda-tc-gibbs算法,对第m篇文档的词wi=t,是常量的,故由(3)-(6)和(8),可得由此,(2)式可证。获得每个单词w的主题z标号后,slda-tc模型的参数θm和δk计算如下。其中表示主题k分配给词t的概率,θm,k表示文档m分配为主题k的概率,δk,j表示主题k属于类别j的概率,为表示主题k分配给词t的次数,表示文档m分配给主题k的次数,表示主题是k分配为类别j的文档数,k=1..k,t=1..v,m=1..m。由此slda-tc模型的参数θ和δ估算完毕。sldatc-gibbs算法描述:算法:输入:文档向量超参数α,β,γ,主题数k,迭代次数t.输出:主题z分布,参数θ和δ.初始化:变量初始化为0.训练生成slda-tc模型后,对第d篇新文档中每个词的隐含主题推断公式如(13)。其中,表示第d篇新文档的词向量,代表其主题向量,表示新文档剔除第i项(即第i个词),主题k分配给词t的次数,表示剔除第i项,第d篇新文档分配给主题k的次数,其它符号含义参考公式(2)。由式(13)计算新文档d每个词的隐含主题标号,然后计算d属于各个主题的概率如式(14)。由此,得到新文档d的主题概率分布s130:将待测文本输入至训练完成的slda-tc文本分类模型,推断出待测文本的主题,进而预测出文本分类。给定训练好slda-tc模型,令为第d篇新文档的词向量,为其主题向量,是对新文档d的类别预测,新文档的分类计算如下。这里假设测试样本集与训练样本集服从同分布,即二者在隐含主题-类别分布上一致,因此,可以由p(y|z)代替,由slda-tc模型的参数δ揭示。是新文档d的主题概率分布由式(12)、(14)和(15),可得:主题之间的相似度用js散度(jensen-shannondivergence)评估,js散度也称js距离,是kl散度(kullback–leiblerdivergence)的一种变形,计算如公式(17)。不同于kl散度,js散度满足对称性和三角距离公式。js(pi||pj)=0.5*kl(pi||(pi+pj)/2)+0.5*kl(pj||(pi+pj)/2)(17)其中,pi和pj分别表示主题i和主题j的词概率分布,js散度的值域范围是[0,1],0表示pi和pj分布相同,1表示相反。主题与类别之间的语义相关度由slda-tc模型的参数δ度量,计算如式(12)所示,δk,j表示主题k属于类别j的概率。在一个或多个实施例中,通过多次迭代训练生成用于分类的slda-tc模型,迭代结束,通过js散度评估主题之间的相似度,通过slda-tc的主题-类别分布参数评估主题与类别之间的语义相关度;slda-tc模型的文本分类结果评价指标宏平均分类精度(macro-precision)、宏平均召回率(macro-recall)和宏平均f1值(macro-f1)。实验分析验证:选取英文数据集20newsgroup的rec、sci和talk三个数据子集,以及包含it、军事、教育、旅游和财经5个类的搜狗中文语料数据子集,每个数据子集中训练样本和测试样本比例为8:2,数据子集描述如表1所述。中英文数据集的分词采用jieba分词,英文词干提取采用的是nltk.stem,去除停用词后,采用tf-idf进行特征选择,实验中保留60%特征词。表1.数据集描述数据集训练文本数类别数特征数20news-rec397944706720news-sci237345794320news-talk1676340945sogou2445570819为验证所提方法的有效性,对slda-tc、lda-tc和svm三个算法进行了实验比较。slda-tc是本公开中提出的算法,lda-tc是在传统lda直接分类,svm是采用lda模型的k个主题作为特征的svm分类算法。slda-tc模型的主题推断的目标是建立主题与类别之间的映射,主题数k与标记训练集的类别数c有关,实验表明k只需取略大于c的一个值,slda-tc就可以达到很好的分类精度。实验中,我们对slda-tc主题模型生成的主题间的js距离、每个主题的前10个特征词的概率分布、类与主题间的相似度进行了分析。如表2~表4描述的是sogou数据子集c=5、k=8时生成的slda-tc主题模型的实验结果,表6~表8描述的是20news-talk数据子集上的实验结果,其中slda-tc主题模型的α、β和γ取值为0.01。表2主题间js散度(slda-tc,sogou,c=5,k=8)表3主题与类的相关度(slda-tc,sogou,c=5,k=8)表4主题前10个词的概率分布(slda-tc,sogou,c=5,k=8)如表2所示,主题2、5、7之间的js散度为0,说明它们是分布相同的主题,从表4可以看出,这3个主题前10个特征词的概率分布也是相同的。其它5个主题之间的js散度在0.45至0.58之间,说明是分散的5个不同主题。从表3和表4可以看出,主题0映射类别“it”,主题1映射类别“旅游”,主题3映射类别“财经”,主题4映射类别“军事”,主题6映射类别“教育”,相似度均在99%以上,而主题2、5、7是与任何类别无关的,称之为“无用”主题。表5.主题间js散度(slda-tc20news-talk,c=3,k=6)表6类与主题的相关度(slda-tc,20news-talk,c=3,k=6)表7主题前10个词的概率分布(slda-tc,20news-talk,c=3,k=6)表5~表7所示的是20news-talk上的实验结果,主题1、3和4是分布相同的“无用”主题,有意义的主题0对应类别talk.politics.guns,主题2对应talk.politics.misc,主题5对应talk.politics.mideast。经过大量实验我们发现,当k-c≥2时,会产生k-c个js散度为0的主题的“无用”主题,因此k只要选择略大于c的值即可,所以slda-tc主题模型的k是容易确定的。slda-tc主题模型能够过滤掉k-c个“无用”主题,建立主题与类别的准确映射。同时,k只略大于c,远低于lda的k值,能显著降低模型的训练时间。图4(a)~图7(c)描述的是在sogou中文、20newsgroup的3个子数据集上,经过tf-idf特征选择保留60%的特征词,主题数k取不同的值迭代10次生成slda模型和lda模型,slda-tc、lda-tc和svm的分类结果比较。在图4(a)~图7(c)中,横坐标均表示迭代次数。图4(a)~图7(c)描述了4个数据集上主题数k取不同值时,slda-tc、lda-tc和svm的分类结果比较。(1)slda-tc的主题时k只需略大于类别数c,分类结果优于lda-tc和svm。如图4(a)-图4(c)所示,20news-rec数据集c=4,k=8时,对于macro-precision、macro-recall和macro-f1分类指标,slda-tc为95.10%、94.99%和94.98%,而lda-tc为63.76%、60.91%和60.33%,svm为68.82%、68.33%、68.08%。随着k增大,lda-tc和svm有所提高,k=80时,lda-tc最高达到为71.85%、71.38%和71.41%,svm最高达到83.90%、83.70%和83.62%,也低于slda-tc。另外k=80,其主题模型的训练时间远远高于slda-tc模型k=6的训练时间。如图5(a)-图5(c)所示所示,sogou数据集c=5,k=8时,对于macro-precision、macro-recall和macro-f1分类指标,slda-tc为92.80%、92.73%和92.70%,而lda-tc为72.67%、68.89%和67.48%,svm为80.69%、80.40%、80.28%。随着k的增大,svm的分类指标逐步提高,当k大于60时,三种分类指标已经提高为89.26%、89.95%、89.24%,但还是低于k=8时slda-tc的92.80%、92.73%和92.70%,并且k=60的svm(lda主题为特征),比k=8的slda-tc要付出更多的时间代价。(2)slda-tc的k值不是越大越好,当k很大时,slda-tc的三个分类指标反倒有所下降,这表明k只需略大于c即可。如图6(a)-图6(c)所示所示,20news-sci数据集c=4,当k=90时,slda-tc分类结果反倒很差。原因在于类别数c=4,生成的90个主题中只有4个主题与类别相关,其余86个是“无用”主题,对分类没有帮助,反而造成了干扰,导致分类结果变差。如图7(a)-图7(c)所示的20news-talk数据集c=3,k=90时也是如此。大量的实验结果表明,对于slda-tc算法,k取略大于c的值,即可获得很高的分类精度。slda-tc与lda-tc、svm在不同数据集上的时间性能及分类结果比较如表8所示。表8.slda-tc与lda-tc、svm时间性能及分类结果比较主题模型的生成时间与主题数k成正比,k值越大,时间代价越高。对slda-tc模型,主题数k只需略大于类别数c即可获得非常好的分类结果,而lda-tc和采用lda主题为特征的svm算法则需要k值达到几十、上百时,才能取得较好的分类结果,从图4(a)-图7(d)所示的实验结果也可以看出。如表8所示,在20news-rec上,lda与slda-tc模型生成时间比率为4.86,即slda比lda快4.86倍,因为二者的k分别为200和8。在20news-sci、20news-talk和sogou数据集上,slda比lda分别快4.78、5.16和4.90倍。同时,从macro-precision、macro-recall和macro-f1分类指标来看,slda-tc算法明显优于lda-tc和svm算法,4种数据集上,slda-tc比svm高出3.10%~9.30%,比lda-tc高出7.10%~34.08%。综上所述,slda-tc模型主题数k只需取略大于类别数c的值,能够识别与类别密切相关的主题,并且在分类精度和时间性能上都明显优于lda-tc和采用lda主题为特征的svm算法。本公开针对lda在文本分类中存在的问题,提出了一种基于有监督主题模型的slda-tc文本分类模型,提出了slda-tc-gibbs参数估计算法,每次对词wi=t的一个隐变分量zi=k进行采样时,保持z的其它词分量即不变,同时也保持不变,即只从该词所在文档类标签相同的其它训练文档中进行隐含主题采样,因为相同类别的文档的主题分布是相似的,并给出了理论证明。slda-tc模型引入了主题-类别概率分布的参数δ,通过θ和δ概率分布,抽取词与主题、文档与主题、主题与类别之间隐含的语义信息映射。另外,slda-tc主题数k只需略大于类别数的值。实验表明slda-tc模型能够明显提高分类精度和时间效率。本公开的一个或多个实施例,还提供了一种文本分类系统,包括文本输入装置、控制器和显示装置,所述控制器包括存储器和处理器,所述存储器存储有计算机程序,所述程序被处理器执行时能够实现如图1所示的以下步骤:(1)构建slda-tc文本分类模型;不同于无监督lda模型,slda-tc文本分类模型的训练文档集的每个文档带有类别标签;slda-tc文本分类模型中需要估计的参数不仅包括文本-主题概率分布、主题-词概率分布,还包括主题-类别概率分布;其中,文本主题概率分布、主题的词概率分布和主题的类别概率分布均服从dirichlet分布。(2)训练slda-tc文本分类模型,进行slda-tc模型参数估计。具体地,在训练slda-tc文本分类模型的过程中,先设置主题数k,取略大于类别数c的值;然后按照slda-tc-gibbs算法对每个词的隐含主题进行采样,且只从与该词所在文本类别标签相同的其它训练文本中进行隐含主题采样;在确定每个词的隐含主题之后,通过统计主题-词、文档-主题、主题-类别的频次,计算得到文本-主题概率分布、主题-词概率分布和主题-类别概率分布;建立主题与类别之间的准确映射;(3)待测文本主题推断和分类。将待测文本输入至训练完成的slda-tc文本分类模型,首先对待测文档每个词进行隐含主题采样;然后推断待测文本的主题概率分布;根据待测文档的主题分布和slda-tc模型的主题-类别分布,输出待测文本的类别标签。(4)slda-tc模型和分类结果评估。对多次迭代训练生成的slda-tc模型,通过js散度评估主题之间的相似度,通过slda-tc的主题-类别分布参数评估主题与类别之间的语义相关度;slda-tc模型的文本分类结果评价由指标宏平均分类精度(macro-precision)、宏平均召回率(macro-recall)和宏平均f1值(macro-f1)评估。本公开的文本分类方法和系统,通过构建及训练完成的slda-tc文本分类模型,利用文本主题概率分布、主题的词概率分布和主题的类别概率分布,抽取词与主题、文档与主题、主题与类别之间隐含的语义信息映射,提高了文本分类精度和时间效率。本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。本公开是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)或随机存储记忆体(randomaccessmemory,ram)等。上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。当前第1页12