本文公开的实施方式涉及信息处理方法和信息处理装置。特别地,本公开的实施方式涉及使用多个训练样本对分类模型进行训练的信息处理方法和信息处理装置。
背景技术:
卷积神经网络(cnn)的深度学习方法的发展以及具有大量的带有标签的人脸图像的大规模数据库的构造使得人脸识别的性能得到极大的提高。然而,对于在视角、分辨率、遮挡、图像质量等方面具有极大变化的极端条件下获得的人脸图像而言,基于卷积神经网络的人脸识别仍不能取得较高的精度。
作为一种分类模型的softmax函数被广泛应用于卷积神经网络。在这种情况下,softmax损失函数被用于卷积神经网络的训练。然而,采用目前的softmax损失函数训练的卷积神经网络仅适合于识别具有高质量数据的人脸图像,而对于在极端条件下获取的人脸图像的识别不能取得令人满意的效果。
因此,有必要对现有的softmax损失函数进行改进以能够对在极端条件下获得人脸图像进行准确的识别。
技术实现要素:
在下文中将给出关于本公开的简要概述,以便提供关于本公开的某些方面的基本理解。应当理解,这个概述并不是关于本公开的穷举性概述。它并不是意图确定本公开的关键或重要部分,也不是意图限定本公开的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
本公开的目的在于提供信息处理方法和信息处理装置。通过根据本公开的信息处理方法和信息处理装置,利用带标签的多个训练样本对分类模型进行训练,所得到分类模型能够对在极端条件获取的样本进行准确的分类。
为了实现本公开的目的,根据本公开的一个方面,提供了一种信息处理方法,其使用多个训练样本对分类模型进行训练,包括如下步骤:基于多个训练样本中的典型样本来调整多个训练样本的特征向量在特征空间中的分布;以及使用经调整的多个训练样本的特征向量对分类模型进行训练。
根据本公开的另一方面,提供了一种信息处理装置,其使用多个训练样本对分类模型进行训练,包括:调整单元,基于多个训练样本中的典型样本来调整多个训练样本的特征向量在特征空间中的分布;以及学习单元,使用经调整的多个训练样本的特征向量对分类模型进行训练。
根据本公开的又一方面,提供了一种信息处理方法,该信息处理方法包括使用根据本公开的上述方面的信息处理方法进行训练所获得的分类模型对待检测的数据进行检测。
根据本公开的再一方面,还提供了能够实现上述的信息处理方法的计算机程序。此外,还提供了具有至少计算机可读介质形式的计算机程序产品,其上记录有用于实现上述的信息处理方法的计算机程序代码。
通过根据本公开的技术使用多个训练样本对分类模型进行训练,可以在不显著增加计算代价的情况下实现对分类模型的改进。较之传统的分类模型,通过根据本公开的信息处理方法训练的分类模型能够对在极端条件获取的样本进行准确的分类。也就是说,根据本公开的技术能够引导模型学习区分性较高的训练样本。
附图说明
参照下面结合附图对本公开实施方式的说明,会更加容易地理解本公开的以上和其它目的、特点和优点,在附图中:
图1是示出根据本公开的第一实施方式的信息处理方法的流程图;
图2(a)和图2(b)是示出以人脸图像作为训练样本的示例的示意图;
图3是示出根据本公开的第二实施方式的信息处理方法的流程图;
图4(a)、图4(b)、图4(c)和图4(d)是示出根据本公开的第二实施方式的信息处理方法的各个步骤的几何解释的示意图;
图5是示出根据本公开的实施方式的信息处理装置的框图;以及
图6示出可用来实现根据本公开的实施方式的使用多个训练样本对分类模型进行训练的信息处理方法100、300和信息处理装置500的通用机器600的结构简图。
具体实施方式
在下文中,将参照所附的说明性示图详细描述本公开内容的一些实施方式。在用附图标记指示附图的元件时,尽管相同的元件在不同的附图中示出,但相同的元件将由相同的附图标记表示。此外,在本公开内容的以下描述中,在有可能使本公开内容的主题不清楚的情况下,将省略对并入于本文中的已知功能和配置的详细描述。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本公开,在附图中仅仅示出了与根据本公开的方案密切相关的部件,而省略了与本公开关系不大的其他细节。
这里,尽管在将作为分类模型的softmax函数应用于卷积神经网络(cnn)以进行人脸识别的背景下描述了本公开的实施方式,但是本公开不限于此。本领域技术人员在本公开的教导下,可以设想将本公开的发明思想扩展到其他分类模型(例如sigmoid函数和tanh函数)和其他应用领域(例如语音识别),所有这些变型方案均应涵盖于本公开的范围内。
作为一种分类模型,softmax函数可被理解为在多个值中取最大值的(max)函数与多个值中的每个值被取为最大值的概率的结合。softmax函数作为激活函数被广泛应用于各种人工神经网络。
卷积神经网络是一种前馈人工神经网络,被广泛地应用于图像和语音处理领域。卷积神经网络基于三个重要特征,即感受野,权值共享和池化。
卷积神经网络假设每个神经元仅与邻近区域中的神经元存在连接关系并且彼此产生影响。感受野表示该邻近区域的大小。此外,卷积神经网络假设某个区域的神经元之间的连接权值也可以应用于所有其他区域,即权值共享。卷积神经网络的池化指的是在将卷积神经网络用于解决分类问题时基于聚合统计进行的降维操作。
softmax函数用于将卷积神经网络的输出映射到区间[0,1],表示输入的数据属于相应的类别的概率,因而被视为一种分类模型。
在卷积神经网络的训练过程中,需要计算卷积神经网络的正向传播结果与使用带标签的训练样本计算的结果之间的差距,将该差距作为损失来进行卷积神经网络的反向传播,从而对卷积神经网络进行训练。在池化操作中使用softmax函数的情况下,使用softmax损失函数进行卷积神经网络的权值的学习。
具体地,softmax损失函数具有如下式(1)所示的形式。
lsoftmax表示softmax函数的损失,其被定义为交叉熵。n表示特征化的训练样本xi(1≤i≤n)的数目,并且c表示类别的数目。注意,本文中的表述“训练样本”指的是用于对分类模型进行训练的样本,即带标签的样本,例如训练样本xi的标签是yi。这里,经特征化的训练样本xi是m维的向量,其标签yi是c个类别中的某一类别。
w和b分别表示卷积神经网络的c*m维的权值矩阵和c维的偏置向量。wj(1≤j≤c)表示权值矩阵中与c个类别中的第j类对应的权值向量,可被理解为与第j类对应的作为m维向量的参数。
可以对式(1)进行进一步的变换以得到下式(2)。
其中,
softmax函数及其损失函数lsoftmax对于本领域技术人员是已知的,因此不对其进行更详细的描述。然而,本领域技术人员应认识到,尽管本文基于softmax函数及其损失函数lsoftmax描述了根据本公开的实施方式,但是本公开的思想同样可以应用于其他分类模型,并且可以应用于除了卷积神经网络之外的其他人工神经网络,例如循环神经网络(rnn)、深度神经网络(dnn)等。
然而,现有的使用softmax损失函数lsoftmax进行学习得到的网络模型对于学习区分性较高的训练样本而言不能取得令人满意的效果,因此有必要对损失函数lsoftmax进行改进以引导网络模型进行学习,使得属于同一类别的训练样本在向量空间中的彼此之间的距离减小,并且使得属于不同类别的训练样本在向量空间中的彼此之间的距离增大。
因此,本公开提出了一种信息处理技术,用于使用多个训练样本对分类模型进行训练。根据本公开的技术在使用训练样本进行训练之前首先对训练样本进行预处理,以便于引导分类模型的学习,从而达成减小类内距离并且增大类间距离的技术效果。
下面将结合附图来更详细地描述根据本公开的实施方式。
[第一实施方式]
图1是示出根据本公开的第一实施方式的信息处理方法100的流程图。
根据本公开的第一实施方式的信息处理方法100使用多个训练样本对分类模型进行训练。如图1所示,信息处理方法100开始于步骤s101。随后,在步骤s110中,基于多个训练样本中的典型样本来调整多个训练样本的特征向量在特征空间中的分布。接着,在步骤s120中,使用经调整的多个训练样本的特征向量对分类模型进行训练。最后,信息处理方法100结束于步骤s130。
本公开的实施方式的思想在于在训练之前对训练样本添加约束条件,从而增强不同类别之间的训练样本的可区分性。
根据本公开的一个实施方式,步骤s110中的特征向量的空间分布调整操作可以通过如下方式进行:在多个训练样本中的、属于同一类别的训练样本中选择具有最显著类别特征的训练样本作为该类别的典型样本,并且使得除了典型样本之外的其他训练样本的特征向量朝向典型样本的特征向量聚集。该操作的目的在于在使用训练样本对分类模型进行训练之前,减小属于同一类别的训练样本之间的区分性,并且增加属于不同类别的训练样本之间的区分性。
根据本公开的一个实施方式,最显著类别特征使得分类模型不会将典型样本分类为其他类别的训练样本。
例如,当训练样本是人脸图像并且用于对作为分类模型的人脸识别模型进行训练时,对于属于同一个人的人脸图像(即属于同一类别的训练样本),在标准环境,例如,颜色对比明显的背景、照明强度均匀适度、人脸正对镜头且没有偏移等条件下拍摄的人脸图像可以被取为典型样本。也就是说,人脸识别模型不会将作为典型样本的该人脸图像分类成属于其他人。
图2(a)和图2(b)是示出以人脸图像作为训练样本的示例的示意图,其中图2(a)示出了未经步骤s110的处理的训练样本的示意图,并且图2(b)示出了经步骤s110的处理的训练样本的示意图。
图2(a)和图2(b)中的横坐标和纵坐标分别表示类别。在图2(a)和图2(b)所示的情况下,人脸图像作为训练样本,属于不同的类别,即属于不同的人。如图2(a)所示,属于不同人(类别)的人脸图像(训练样本)之间的距离不大,因此区分性不明显。在这种情况下,使用未经处理的训练样本训练得到的人脸识别模型对于在极端情况下取得的样本,例如在背景颜色接近脸部颜色、照明光线阴暗、脸部偏离镜头等情况下拍摄的人脸图像,不能取得很好的分类效果。
在应用根据本公开的第一实施方式的信息处理方法100时,通过步骤s110的处理,即将背景对比度明显,照明条件理想的情况下拍摄的正面的人脸图像取做该类别(人)的典型样本,调整其他训练样本(人脸图像)的特征向量在特征空间中的分布,使得其他训练样本的特征向量朝向典型样本的特征向量聚集,从而减小属于同一类别的训练样本之间的区分性,并且增加属于不同类别的训练样本之间的区分性。
根据本公开的一个实施方式,可以通过如下方式实现步骤s110的处理:以典型样本的特征向量为中心,对其他训练样本的特征向量与该典型样本的特征向量之间的距离进行规范化。
下面结合损失函数lsoftmax对根据本公开的第一实施方式的信息处理方法100的步骤s110进行说明。
基于信息处理方法100的步骤s110中的操作,式(2)中的损失函数lsoftmax可以改写为下式(3)。
对属于同一类别的训练样本xi相对于典型样本进行规范化,即||xi||=β,其中β是常数。通过这样处理,在特征空间中可以使得属于同一类别的除了典型样本的其他训练样本的特征向量朝向典型样本的特征向量聚集,从而使得属于同一类别的训练样本的区分性减小,而属于不同类别的训练样本的区分性增大。
随后,如上文所述,在步骤s120中,信息处理方法100使用经调整的多个训练样本的特征向量对分类模型进行训练,从而得到最终的经训练的分类模型,
通过信息处理方法100,可以通过在训练之前对训练样本进行预先调整,使得能够在训练过程中减小属于同一类别的训练样本之间的区分性并且增加属于不同类别的训练样本之间的区分性。经过这样训练的分类模型能够对在极端条件下取得的样本进行准确的分类。
[第二实施方式]
根据本公开,除了在训练之前对训练样本进行预处理之外,还可以对分类模型本身进行预处理。
图3是示出根据本公开的第二实施方式的信息处理方法300的流程图。
如图3所示,信息处理方法300开始于步骤s301。随后,执行步骤s310。图3中的步骤s310与图1中的步骤s110完全相同,因此出于简要起见,不对该步骤进行重复的描述。
参照图3,根据本公开的第二实施方式,信息处理方法300可以进一步包括步骤s320,其中将分类模型的关于不同类别的参数进行规范化,以便基于经调整的所述多个训练样本的特征向量以及经规范化的参数对所述分类模型进行训练。
如上式(1)-(3)中所示,权值向量wj可以被理解为向量空间中从原点发出的轴线。因此,在向量空间中存在在原点处相交的c条轴线,其分别对应于c个类别,同时对应于c个权值向量wj。属于同一类别的训练样本的特征向量在向量空间中在相应的权值向量wj附近聚集。
换言之,对于每个类别,分类模型可以具有对应于该类别的参数,例如权值向量wj和相应的偏置值bj。
通过对权值向量wj进行规范化,可以在向量空间中将权值向量wj投影到同一个球面上。通过步骤s320的处理,可以消除权值向量wj的模对分类模型的训练的影响,从而获得更为严格的分类标准。
基于步骤s320中的操作,式(3)中的损失函数lsoftmax可以进一步改写为下式(4)。
其中,对权值向量wj进行规范化,即||wj||=α,其中α是常数。
此外,参照图3,根据本公开的第二实施方式,信息处理方法300可以进一步包括步骤s330,其中增加多个训练样本所属的不同类别之间的区分裕度,以便基于经调整的所述多个训练样本的特征向量以及增加的区分裕度对分类模型进行训练。
步骤s330的处理的目的也是减小属于同一类别的训练样本之间的区分性,并且增加属于不同类别的训练样本之间的区分性。
具体地,根据本公开的一个实施方式,增加区分裕度可以通过如下方式进行:对于多个训练样本中的每个训练样本,调整该训练样本与相应的类别的参数之间的相似度。如上文所述,为了减小属于同一类别的训练样本之间的区分性,可以调整该训练样本与相应的类别的参数之间的相似度,即调整训练样本向量xi与相应的权值向量wyi之间的相似度。
更具体地,根据本公开的一个实施方式,调整相似度可以包括使训练样本的特征向量与分类模型的相应的参数的特征向量之间的夹角乘以系数m,其中m>1。换言之,对于训练样本向量xi与相应的权值向量wyi,可以通过减小这两个向量之间的夹角来增加它们之间的相似度。
下面基于lsoftmax损失函数进行说明。
根据上文所述的步骤s330中的操作,式(4)中的损失函数lsoftmax可以进一步改写为下式(5)。
其中
也就是说,通过引入m(≥1),可以减小属于同一类别的训练样本之间的区分性,并且增加属于不同类别的训练样本之间的区分性。换言之,通过引入系数m(≥1),可以增加多个训练样本所属的不同类别之间的区分裕度。
系数m的选取可以基于多种原则。
例如,根据本公开的一个实施方式,系数m可以被选择为使得同一类别内间的最大角度特征距离小于不同类别之间的最小角度特征距离。也就是说,通过引入系数m,属于同一类别的所有训练样本的特征向量在向量空间中的彼此之间的夹角中的最大值小于属于不同类别的训练样本的特征向量在向量空间中的彼此之间的夹角中的最小值,使得属于同一类别的训练样本之间的区分性较小,而属于不同类别的训练样本之间的区分性较大。
此外,根据本公开的一个实施方式,当多个训练样本所属的类别的数目c增大时,减小系数m;以及当该数目c减小时,增大系数m。如上文所述,通过增大系数m,可以减小属于同一类别的训练样本的特征向量在向量空间中的彼此之间的夹角,并且增加属于不同类别的训练样本的特征向量在向量空间中的彼此之间的夹角。然而,系数m与类别的数目c相关。具体地,当数目c较大时,由于向量空间中的权值向量wj的分布较密集,因此不能过度增大系数m的值。同理,当数目较小时,由于向量空间中的权值向量wj的分布较稀疏,因此可以适度增大系数m的值。
随后,如图3所示,在步骤s340中,可以基于经调整的多个训练样本的特征向量、经规范化的参数以及增加的区分裕度对分类模型进行训练,从而得到经训练的分类模型。最后,信息处理方法300结束于步骤s350。
通过信息处理方法300训练的分类模型能够对在极端条件获取的样本进行准确的分类。
尽管上文按照步骤s310、s320、s330的顺序描述了信息处理方法300,但是本领域技术人员应认识到,不存在对上述步骤的执行顺序的特别限定。换言之,步骤s310、s320、s330可以按照任何顺序执行,或者可以同时执行,所有这些变型方案均应涵盖于本公开的范围内。此外,本领域技术人员还应认识到,步骤s320和s330对于根据本公开的实施方式的信息处理方法而言不是必须的。换言之,可以仅执行步骤s310而不执行步骤s320和s330,或者可以执行步骤s310以及步骤s320和s330中的一个步骤。
为了更直观地说明根据本公开的技术,下面结合图4(a)、图4(b)、图4(c)和图4(d)说明根据本公开的信息处理方法300的各个步骤的解释。
图4(a)、图4(b)、图4(c)和图4(d)是示出根据本公开的第二实施方式的信息处理方法300的各个步骤的几何解释的示意图。
具体地,图4(a)示出了未对分类模型和训练样本进行预处理的情况。如图4(a)所示,例如,训练样本属于两个类别(分别用浅色的圆点和深色的圆点表示),诸如权值向量的这两个类别的参数在向量空间中的投影为w1和w2,训练样本在向量空间中的特征向量分布在这两个权值向量周围。为了便于理解,图4(a)中示出了用于判定类别的边界。
图4(b)示出了对分类模型执行增加类间区分裕度的预处理(步骤s330)的情况。如图4(b)所示,通过执行步骤s330,类间的判定边界从一条线扩展为一个扇形并且各个类别的训练样本朝向相应的权值向量聚集(由图中浅色的箭头表示),从而使得属于同一类别的训练样本之间的区分性较小,而属于不同类别的训练样本之间的区分性较大。
图4(c)示出了对分类模型进一步执行类参数规范化的预处理(步骤s320)的情况。如图4(c)所示,通过执行步骤s320,权值向量w1和w2被规范化,从而能够投影到向量空间中的同一个球面上,藉此消除了权值向量的模对分类模型的训练过程的影响,从而获得更为严格的分类标准。
图4(d)示出了对分类模型进一步执行类参数规范化的预处理(步骤s110或s310)的情况。如图4(c)所示,通过执行步骤s110或s310,分属不同类别的训练样本分别朝向相应的典型样本聚集(由图中浅色的箭头表示),从而进一步使得属于同一类别的训练样本之间的区分性较小,而属于不同类别的训练样本之间的区分性较大。
根据本公开的信息处理方法可以通过在训练之前对训练样本和分类模型进行预先调整,使得能够在训练过程中减小属于同一类别的训练样本之间的区分性并且增加属于不同类别的训练样本之间的区分性。经过这样训练的分类模型能够对在极端条件下取得的样本进行准确的分类。
图5是示出根据本公开的实施方式的信息处理装置500的框图。
如图5所示,用于使用多个训练样本对分类模型进行训练的信息处理装置500包括:调整单元501,用于基于多个训练样本中的典型样本来调整多个训练样本的特征向量在特征空间中的分布;以及学习单元502,用于使用经调整的多个训练样本的特征向量对分类模型进行训练。
调整单元501被配置成执行上文参照图1描述的方法100的步骤s110或参照图3描述的方法300的步骤s310的处理并且能够取得与该处理相关的益处,在此省略其描述。
学习单元502被配置成执行上文参照图1描述的方法100的步骤s120或参照3描述的方法300的步骤s340的处理并且能够取得与该处理相关的益处,在此省略其描述。
此外,本公开还提出了一种信息处理方法,其使用通过如上文所述的信息处理方法进行训练而获得的分类模型对待检测的数据进行检测。通过如上文所述的信息处理方法进行训练,能够获得对于极端情况下获取的样本具有较好的分类效果的分类模型,并且将该分类模型应用于对无标签的样本(即待检测的数据)进行分类。
图6是示出可用来实现根据本公开的实施方式的使用多个训练样本对分类模型进行训练的信息处理方法100、300和信息处理装置500的通用机器600的结构简图。通用机器600可以是例如计算机系统。应注意,通用机器600只是一个示例,并非暗示对本公开的方法和装置的使用范围或者功能的局限。也不应将通用机器600解释为对上述使用多个训练样本对分类模型进行训练的方法和装置中示出的任一组件或其组合具有依赖或需求。
在图6中,中央处理单元(cpu)601根据只读存储器(rom)602中存储的程序或从存储部分608加载到随机存取存储器(ram)603的程序执行各种处理。在ram603中,还根据需要存储当cpu601执行各种处理等等时所需的数据。cpu601、rom602和ram603经由总线604彼此连接。输入/输出接口605也连接到总线604。
下述部件也连接到输入/输出接口605:输入部分606(包括键盘、鼠标等等)、输出部分607(包括显示器,例如阴极射线管(crt)、液晶显示器(lcd)等,和扬声器等)、存储部分608(包括硬盘等)、通信部分609(包括网络接口卡例如lan卡、调制解调器等)。通信部分609经由网络例如因特网执行通信处理。根据需要,驱动器610也可连接到输入/输出接口605。可拆卸介质611例如磁盘、光盘、磁光盘、半导体存储器等等可以根据需要被安装在驱动器610上,使得从中读出的计算机程序可根据需要被安装到存储部分608中。
在通过软件实现上述系列处理的情况下,可以从网络例如因特网或从存储介质例如可拆卸介质611安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图6所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质611。可拆卸介质611的例子包含磁盘(包含软盘)、光盘(包含光盘只读存储器(cd-rom)和数字通用盘(dvd))、磁光盘(包含迷你盘(md)(注册商标))和半导体存储器。或者,存储介质可以是rom602、存储部分608中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
此外,本公开还提出了一种存储有机器可读取的指令代码的程序产品。所述指令代码由机器读取并执行时,可执行上述根据本公开的使用多个训练样本对分类模型进行训练的信息处理方法。相应地,用于承载这种程序产品的上面列举的各种存储介质也包括在本公开的范围内。
上面已通过框图、流程图和/或实施方式进行了详细描述,阐明了根据本公开的实施方式的装置和/或方法的具体实施方式。当这些框图、流程图和/或实施方式包含一个或多个功能和/或操作时,本领域的技术人员明白,这些框图、流程图和/或实施方式中的各功能和/或操作可以通过各种硬件、软件、固件或实质上它们的任意组合而单独地和/或共同地实施。在一种实施方式中,本说明书中描述的主题的几个部分可通过特定用途集成电路(asic)、现场可编程门阵列(fpga)、数字信号处理器(dsp)或其他集成形式实现。然而,本领域的技术人员会认识到,本说明书中描述的实施方式的一些方面能够全部或部分地在集成电路中以在一个或多个计算机上运行的一个或多个计算机程序的形式(例如,以在一个或多个计算机系统上运行的一个或多个计算机程序的形式)、以在一个或多个处理器上运行的一个或多个程序的形式(例如,以在一个或多个微处理器上运行的一个或多个程序的形式)、以固件的形式、或以实质上它们的任意组合的形式等效地实施,并且,根据本说明书中公开的内容,设计用于本公开的电路和/或编写用于本公开的软件和/或固件的代码完全是在本领域技术人员的能力范围之内。
应该强调,术语“包括/包含”在本文使用时指特征、要素、步骤或组件的存在,但并不排除一个或更多个其它特征、要素、步骤或组件的存在或附加。涉及序数的术语“第一”,“第二”等并不表示这些术语所限定的特征、要素、步骤或组件的实施顺序或者重要性程度,而仅仅是为了描述清楚起见而用于在这些特征、要素、步骤或组件之间进行标识。
综上,在根据本公开的实施方式中,本公开提供了如下方案,但不限于此:
方案1.一种信息处理方法,使用多个训练样本对分类模型进行训练,所述方法包括:
基于所述多个训练样本中的典型样本来调整所述多个训练样本的特征向量在特征空间中的分布;以及
使用经调整的多个训练样本的特征向量对所述分类模型进行训练。
方案2.如方案1所述的信息处理方法,其中,所述典型样本是具有最显著类别特征的训练样本,所述的调整包括:
使得除了典型样本之外的其他训练样本的特征向量朝向所述典型样本的特征向量聚集。
方案3.如方案2所述的信息处理方法,其中,所述最显著类别特征使得所述分类模型不会将所述典型样本分类为其他类别。
方案4.如方案2所述的信息处理方法,其中,所述的聚集包括:
以所述典型样本的特征向量为中心,对其他训练样本的特征向量与该典型样本的特征向量之间的距离进行规范化。
方案5.如方案1所述的信息处理方法,其中,对于每个类别,所述分类模型具有对应于该类别的参数,
所述方法还包括:
将所述分类模型的关于不同类别的参数进行规范化,以便基于经调整的所述多个训练样本的特征向量以及经规范化的参数对所述分类模型进行训练。
方案6.如方案1所述的信息处理方法,还包括:
增加所述多个训练样本所属的不同类别之间的区分裕度,以便基于经调整的所述多个训练样本的特征向量以及增加的区分裕度对所述分类模型进行训练。
方案7.如方案6所述的信息处理方法,其中,所述的增加区分裕度包括:
对于所述多个训练样本中的每个训练样本,调整该训练样本与相应的类别的参数之间的相似度。
方案8.如方案7所述的信息处理方法,其中,所述的调整相似度包括:使该训练样本的特征向量与所述分类模型的相应的参数的特征向量之间的夹角乘以系数m,其中m>1。
方案9.如方案8所述的信息处理方法,其中,所述系数m被选择为使得同一类别内间的最大角度特征距离小于不同类别之间的最小角度特征距离。
方案10.如方案8所述的信息处理方法,其中,当所述多个训练样本所属的类别的数目增大时,减小所述系数m;以及当所述数目减小时,增大所述系数m。
方案11.如方案1所述的信息处理方法,其中,所述分类模型是softmax函数,所述参数是softmax函数的针对不同类别的权重,所述训练样本是softmax函数训练过程中使用的输入。
方案12.一种信息处理装置,使用多个训练样本对分类模型进行训练,所述装置包括:
调整单元,基于所述多个训练样本中的典型样本来调整所述多个训练样本的特征向量在特征空间中的分布;以及
学习单元,使用经调整的多个训练样本的特征向量对所述分类模型进行训练。
方案13.一种信息处理方法,包括使用如方案1至11所述的信息处理方法进行训练所获得的分类模型对待检测的数据进行检测。
尽管上面已经通过对本公开的具体实施方式的描述对本公开进行了披露,但是,应该理解,本领域的技术人员可在所附权利要求的精神和范围内设计对本公开的各种修改、改进或者等同物。这些修改、改进或者等同物也应当被认为包括在本公开的保护范围内。