逻辑回归模型的数据处理方法、装置、处理器及电子设备与流程

文档序号:30934999发布日期:2022-07-30 01:01阅读:118来源:国知局
逻辑回归模型的数据处理方法、装置、处理器及电子设备与流程

1.本技术涉及人工智能技术领域,具体而言,涉及一种逻辑回归模型的数据处理方法、装置、处理器及电子设备。


背景技术:

2.目前,在推荐领域深度学习应用逐渐广泛起来,也形成为目前的主流趋势。而基于嵌入层的逻辑回归,也是受到这一启发。目前主流应用在推荐领域的一些深度学习模型有transformer(一种机器翻译模型),deepfm(一种基于ctr预估的推荐系统)等,均在一些国际大型互联公司得到应用,并且获得不错的效果。在商品点击率(ctr)等任务中,一些传统模型仍有较为优秀的表现,例如逻辑回归等。
3.但是传统模型存在如下问题:1、深度模型可解释性不强,训练完成后在一定程度上会出现对于模型选择的特征无法解释的情况;2、由于深度学习层数过深,在训练时间和模型复杂度上均有很大的消耗。
4.针对相关技术中逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题,目前尚未提出有效的解决方案。


技术实现要素:

5.本技术的主要目的在于提供一种逻辑回归模型的数据处理方法、装置、处理器及电子设备,以解决相关技术中逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题。
6.为了实现上述目的,根据本技术的一个方面,提供了一种逻辑回归模型的数据处理方法,包括:确定输入数据对应的目标向量,其中,所述目标向量为所述输入数据根据嵌入算法得到的;将所述目标向量输入逻辑回归模型,由所述逻辑回归模型输出所述目标向量对应的目标概率,其中,所述目标概率为所述输入数据符合目标条件的概率,所述逻辑回归模型为训练数据通过优化算法训练得到的。
7.可选的,将所述目标向量输入逻辑回归模型,由所述逻辑回归模型输出所述目标向量对应的目标概率之前,所述方法还包括:获取训练数据和初始逻辑回归模型;通过所述训练数据采用所述优化算法对所述初始逻辑回归模型进行训练;在所述逻辑回归模型的损失函数值达到预设阈值的情况下,确定所述初始逻辑回归模型训练完成,将所述初始逻辑回归模型作为所述逻辑回归模型。
8.可选的,获取训练数据和初始逻辑回归模型包括:获取数据库中存储的样本数据;对所述样本数据进行清洗,得到所述训练数据;创建所述初始逻辑回归模型。
9.可选的,通过所述训练数据采用所述优化算法对所述初始逻辑回归模型进行训练包括:将训练数据输入所述初始逻辑回归模型,得到所述训练数据符合所述目标条件的预测概率;根据所述优化算法的优化函数,确定所述初始逻辑回归模型的损失函数的梯度值,
其中,所述优化函数包括梯度下降表达式和自适应动量随机优化表达式;根据所述预测概率和所述梯度值,采用所述损失函数,确定所述初始逻辑回归模型的损失函数值;在所述损失函数值未达到所述预设阈值的情况下,选取新的训练数据对所述初始逻辑回归模型进行训练,直至所述损失函数值达到所述预设阈值。
10.可选的,根据所述优化算法的优化函数,确定所述初始逻辑回归模型的损失函数的梯度值包括:根据所述梯度下降表达式的第一权重和所述自适应动量随机优化表达式的第二权重,以及所述优化函数的梯度下降表达式和自适应动量随机优化表达式,确定所述损失函数的梯度值;其中,所述第一权重和第二权重为预设值,所述第二权重小于所述第一权重,所述第二权重与所述第一权重的比值小于第一预设比值。
11.可选的,通过所述损失函数值的变化情况,确定是否发生梯度爆炸;在发生梯度爆炸的情况下,将所述第二权重增大,对所述损失函数的梯度值进行更新,并确定更新后的损失函数值;根据更新后的损失函数值确定是否发生梯度爆炸,在更新后的损失函数值仍然发生梯度爆炸的情况下,对所述第二权重继续增大,直至更新后的损失函数值不发生梯度爆炸。
12.可选的,确定输入数据对应的目标向量之后,所述方法还包括:将所述目标向量进行存储;在后续对所述逻辑回归模型进行再训练的情况下,获取所述目标向量对所述逻辑回归模型进行再训练。
13.为了实现上述目的,根据本技术的另一方面,提供了一种逻辑回归模型的数据处理装置,包括:确定模块,用于确定输入数据对应的目标向量,其中,所述目标向量为所述输入数据根据嵌入算法得到的;处理模块,用于将所述目标向量输入逻辑回归模型,由所述逻辑回归模型输出所述目标向量对应的目标概率,其中,所述目标概率为所述输入数据符合目标条件的概率,所述逻辑回归模型为训练数据通过优化算法训练得到的。
14.为了实现上述目的,根据本技术的另一方面,提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述中任意一项所述的逻辑回归模型的数据处理方法。
15.为了实现上述目的,根据本技术的另一方面,提供了一种电子设备,包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述中任意一项所述的逻辑回归模型的数据处理方法。
16.通过本技术,采用以下步骤:确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的,通过利用嵌入式算法将输入数据量化得到目标向量,再将目标向量输入利用优化算法得到的逻辑回归模型,进而得出目标向量对应的目标概率,解决了相关技术中的逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题。进而达到了提高输入数据分类效率的技术效果。
附图说明
17.构成本技术的一部分的附图用来提供对本技术的进一步理解,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
18.图1是根据本技术实施例提供的逻辑回归模型的数据处理方法的流程图;
19.图2是根据本技术实施方式提供的一种嵌入兼容优化法逻辑回归模型的流程图;
20.图3是根据本技术实施方式提供的另一种嵌入兼容优化法逻辑回归模型的流程图;
21.图4是根据本技术实施例提供的逻辑回归模型的数据处理装置的示意图;
22.图5是根据本技术实施例提供的电子设备的示意图。
具体实施方式
23.需要说明的是,在不冲突的情况下,本技术中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本技术。
24.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分的实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本技术保护的范围。
25.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
26.下面结合优选的实施步骤对本发明进行说明,图1是根据本技术实施例提供的逻辑回归模型的数据处理方法的流程图,如图1所示,该方法包括如下步骤:
27.步骤s101,确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;
28.步骤s102,将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的。
29.上述步骤的执行主体可以为处理器或控制器,通过上述步骤,确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的,通过利用嵌入式算法将输入数据量化得到目标向量,再将目标向量输入利用优化算法得到的逻辑回归模型,进而得出目标向量对应的目标概率,解决了相关技术中的逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题。进而达到了提高输入数据分类效率的技术效果。
30.上述目标向量可以是对输入的高维空间物体,产品或用户数据的特征,利用嵌入式算法进行降维处理,将特征量化成的向量的形式得到的,也即是输入数据可以根据嵌入算法得到特征向量,上述目标向量可以用于计算符合某些预设条件的概率,通过将特征量化为特征向量得到目标向量,可以达到提高数据处理效率的效果。
31.上述逻辑回归模型可以利用数据库中已有的数据集或通过线下或线上收集的训练数据对初始逻辑回归模型进行训练,针对现有技术中逻辑模型训练时间长和模型复杂的问题,本实施例训练方法可以采用优化算法进行训练,根据上述优化算法的优化函数,可以确定初始逻辑回归模型的计算损失函数所需的梯度值,通过对损失函数值的进行判断,在逻辑回归模型的损失函数值达到预设阈值的情况下,可以确定初始逻辑回归模型训练完成,优化算法例如,通过兼容优化法由随机梯度下降(sgd)法和adam(adaptive momentum,自适应动量随机优化法)二者的最优融合算法。
32.上述目标概率可以是输入数据对应的向量输入逻辑回归模型,由逻辑回归模型预测得到的符合目标条件的概率,用于帮助用户进行结果预测,例如,通过输入产品的数据得到对应的向量,将上述向量输入逻辑回归模型,得到未来一段时间内预测产品被选中的概率,也即是上述目标概率。
33.通过利用嵌入式算法将输入数据量化得到目标向量,再将目标向量输入利用优化算法得到的逻辑回归模型,进而得出目标向量对应的目标概率,解决了相关技术中的逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题。进而达到了提高输入数据分类效率的技术效果。
34.可选的,将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率之前,方法还包括:获取训练数据和初始逻辑回归模型;通过训练数据采用优化算法对初始逻辑回归模型进行训练;在逻辑回归模型的损失函数值达到预设阈值的情况下,确定初始逻辑回归模型训练完成,将初始逻辑回归模型作为逻辑回归模型。
35.上述训练数据可以是数据库中已有的样本数据集或通过线下或线上收集的训练数据,通过上述训练数据可以对初始逻辑回归模型进行训练得到逻辑回归训练模型,可以利用优化算法通过训练数据实现对上述初始逻辑回归模型进行训练,上述优化算法可以是随机梯度下降法与自适应动量随机优化法融合的兼容优化算法。
36.上述逻辑回归模型的损失函数可以用来反映模型的预测值与实际数据的差距,若上述逻辑回归模型的损失函数值达到预设阈值的情况下,初始逻辑回归模型训练完成,可以将上述初始逻辑回归模型作为逻辑回归模型,利用逻辑回归模型对目标概率进行计算。
37.通过最优算法实现对初始逻辑回归模型进行训练,利用上述逻辑回归模型的损失函数值对初始逻辑回归模型是否训练完成进行判断,达到了对逻辑回归模型进行高效准确训练的目的,实现了提高逻辑回归模型的训练效率,以及计算准确性的效果。
38.可选的,获取训练数据和初始逻辑回归模型包括:获取数据库中存储的样本数据;对样本数据进行清洗,得到训练数据;创建初始逻辑回归模型。
39.上述训练数据可以从数据库中存储的样本数据中进行选取,为避免样本数据中存在重复数据或是错误数据以及对与训练模型无关的无效数据,降低初始逻辑回归模型的训练效率,在进行逻辑模型训练之前,还可以对上述样本数据进行清洗,纠正样本数据中的可
识别错误,检查样本数据的一致性,处理无效值和缺失值,得到训练数据,创建初始逻辑回归模型。
40.通过对样本数据进行清洗得到训练数据,达到了过滤样本数据中的无效数据的目的,实现了提高训练数据准确性的技术效果。
41.可选的,通过训练数据采用优化算法对初始逻辑回归模型进行训练包括:将训练数据输入初始逻辑回归模型,得到训练数据符合目标条件的预测概率;根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值,其中,优化函数包括梯度下降表达式和自适应动量随机优化表达式;根据预测概率和梯度值,采用损失函数,确定初始逻辑回归模型的损失函数值;在损失函数值未达到预设阈值的情况下,选取新的训练数据对初始逻辑回归模型进行训练,直至损失函数值达到预设阈值。
42.由于随机梯度下降法具有较好的收敛效果以及训练速度快的特点,自适应动量随机优化算法具有能够高效解决梯度下降及梯度爆炸问题的特点,上述优化算法的利用上述特点采用梯度下降表达式以及自适应动量随机优化表达式组成优化函数,可以通过上述优化函数确定上述初始逻辑回归模型的损失函数的梯度值,也即是损失函数方向导数中最大值。
43.上述损失函数可以用来反映初始回归模型的预测概率值与实际数据的差距,根据训练数据的预测概率,以及初始回归模型的梯度值的最优值,采用损失函数,可以确定初始逻辑回归模型的损失函数值,在损失函数值未达到预设阈值的情况下,也即是初始回归模型的预测概率值与实际数据的差距不满足预设条件,选取新的训练数据对初始逻辑回归模型进行训练,直至损失函数值达到预设阈值。上述初始回归模型的梯度值的最优值是通过上述优化算法得到的。
44.例如,采取兼容优化法(也即是上述优化算法)由sgd(stochastic gradient descent,随机梯度下降)法与adam(adaptive momrntum,自适应动量随机优化法)法融合而成,通过对于损失函数下降速率的判断,找到最优结合方式。sgd法优势在于对于梯度要求很低,在噪声不是很大的情况下,收敛效果都很不错。例如在推荐领域,经常会有大量用户及产品数据,在应用大型数据集时,相比梯度下降的全部遍历,sgd训练速度很快。而adam法则在大规模数据集上可以高效的解决梯度下降及梯度爆炸问题。兼容优化法函数为:其中,v
t
表示梯度值,g
t
表示梯度,β的一般经验值可以设置成为0.9,w
sgd
为sgd的随机权重,w
adam
表示adam的随机权重,η
t
表示商品t的学习率,w
t
表示当前商品t下的随即权重,t表示商品编号。
45.通过上述优化函数,也即是由梯度下降表达式和自适应动量随机优化表达式组成的优化函数,利用损失函数对初始逻辑回归模型进行训练,解决了现有技术中模型训练复杂,时间成本高的问题,实现了提高模型训练效率的技术效果。
46.可选的,根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值包括:根据梯度下降表达式的第一权重和自适应动量随机优化表达式的第二权重,以及优化函数的梯度下降表达式和自适应动量随机优化表达式,确定损失函数的梯度值;其中,第一权重和第二权重为预设值,第二权重小于第一权重,第二权重与第一权重的比值小于第一预设比值。
47.根据梯度下降表达式的第一权重和自适应动量随机优化表达式的第二权重,以及优化函数的梯度下降表达式和自适应动量随机优化表达式,可以确定损失函数的梯度值;其中,第一权重和第二权重为预设值,第二权重小于第一权重,上述第二权重与第一权重的比值小于第一预设比值,其中,第一预设比值可以是远小于1的数值,也就说明第一预设比值非常小甚至可以忽略不计。因为在逻辑回归模型的训练过程中,梯度值是默认的,在训练过程中也会发生变化,但是在没有发生梯度爆炸时,通过随机梯度下降(sgd)法就可以满足梯度优化的需求,但是在发生梯度爆炸的情况下,随机梯度下降(sgd)法就无法满足,容易发生错误,就需要采用adam(adaptive momrntum,自适应动量随机优化法),因此,在训练开始时,自然不会发生梯度爆炸,通过第一权重远大于上述第二权重的方式,使得优化的梯度值主要是受随机梯度下降(sgd)法影响,在发生梯度爆炸的情况下,通过调整第一权重和第二权重的第一预设比值,来调整梯度优化公式中第二权重增长,以解决梯度爆炸的问题。
48.可选的,通过损失函数值的变化情况,确定是否发生梯度爆炸;在发生梯度爆炸的情况下,将第二权重增大,对损失函数的梯度值进行更新,并确定更新后的损失函数值;根据更新后的损失函数值确定是否发生梯度爆炸,在更新后的损失函数值仍然发生梯度爆炸的情况下,对第二权重继续增大,直至更新后的损失函数值不发生梯度爆炸。
49.通过上述损失函数值的变化情况可以确定是否发生梯度爆炸,也即是是否发生梯度为0或者梯度无限制的增大的情况是否发生,在发生梯度爆炸的情况可以通过调整第二权重值的方式进行处理,可以将第二权重进行增加,进而可以对损失函数的梯度值进行更新,并且确定更新后的损失函数值,对更新后的损失函数值进行再判断,可以确定是否还发生梯度爆炸,在更新后的损失函数值仍然发生梯度爆炸的情况下,可以对第二权重继续增大,直至更新后的损失函数值不发生梯度爆炸。
50.例如,遇到长时间损失函数无法下降,融合优化器会加大adam模块的权重,并赋予较低或零值给sgd模块,尝试继续使用adam法优化下降直到找到最优。目的是高效解决训练中所发生的梯度下降及梯度爆炸等情况的发生。并且可以灵活适应各种场景需求。
51.通过对损失函数值的变化进行判断,达到有效避免模型训练结果异常的的情况的目的,实现了提高逻辑回归模型训练结果准确性的技术效果。
52.可选的,确定输入数据对应的目标向量之后,方法还包括:将目标向量进行存储;在后续对逻辑回归模型进行再训练的情况下,获取目标向量对逻辑回归模型进行再训练。
53.确定输入数据对应的目标向量之后,还可以对目标向量进行存储,扩大数据库中样本数据的数据集,在后续对逻辑回归模型进行再训练的情况下,可以利用含有目标向量的样本数据集对逻辑回归模型进行再训练,提高逻辑回归模型计算的准确性。
54.需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
55.本实施例还提供了一种可选的实施方式,下面对该实施方式进行详细说明。
56.本实施方式针对现有技术中存在的缺陷和不足。提供了一种嵌入兼容优化法逻辑回归在推荐领域的应用方法。逻辑回归模型是一种经典的机器学习模型,常用于二分类任务。在推荐领域亦是不错的一个模型选择。嵌入式操作针对特征的降维处理,并可将一些特征量化成向量形式,方便后续模型训练。兼容优化法则是在损失函数寻找最优解的过程中,
起到灵活高效找到最优解的作用。本实施方式在推荐领域训练或是在线服务方面在一定程度上可以提高其效率的技术效果。
57.本实施方式针对现有技术问题进行优化,本实施方式的机器学习模型尤其是逻辑回归模型,由于目标函数相对深度学习模型简单,优化速度也有一定的优势,训练时间和模型复杂度都较低,可以很好的提升效率。
58.图2是根据本技术实施方式提供的一种嵌入兼容优化法逻辑回归模型的流程图,如图2所示,对本实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本技术的一部分实施步骤,而不是全部的实施步骤。
59.本实施方式的目的在于提供一种嵌入兼容优化发逻辑回归在推荐领域的应用,以解决上述背景技术中提出的问题。
60.为实现上述目的,本发明提供如下技术方案:
61.s201从数据库获取产品及用户数据,对数据进行清洗;
62.s202针对数据进行嵌入式方法进行处理;
63.s203使用大规模数据集训练模型;
64.s204将预测结果是否点击该商品作为结果传出;
65.此方案的进一步解释:
66.嵌入层,嵌入层在深度学习领域有着较为广发的应用,在推荐领域的经典深度学习算法deepfm中也有着很重要的作用。本实施方式涉及为图嵌入式方法,理解为一种从一种空间映射到另外一种空间,每个x都有一个对应的y。在本方案中所涉及的应用为从高维空间物体到低维空间物体只会有一个低维投影的概念。同时可以解决one-hot向量(将类别向量转换为机器学习算法易于利用的一种形式的过程)变化的问题。且此种方法具有自适应性。例如,可以将物品的属性特征以三维的向量形式进行存储,方便后续模型训练。
67.嵌入式的映射关系:
68.f(x)
→y69.其中x为自变量,y为因变量;
70.逻辑回归模型虽然被称为回归,但是一个分类模型,常用于二分类任务。求解逻辑回归方法很多,核心思想为找到一个方向,参数朝这个方向移动之后使得损失函数能够减小,这个方向往往由一阶偏导或者二阶偏导组合求得。
71.逻辑回归的损失函数为:
[0072][0073]
其中,v表示梯度值,p(xi)表示发生概率,yi为随机系数,n表示自然数。
[0074]
本实施方式采取兼容优化法由随机梯度下降(sgd)法与adam(adaptive momrntum,自适应动量随机优化法)法融合而成,通过对于损失函数下降速率的判断,找到最优结合方式。sgd法优势在于对于梯度要求很低,在噪声不是很大的情况下,收敛效果都很不错。例如在推荐领域,经常会有大量用户及产品数据,在应用大型数据集时,相比梯度下降的全部遍历,sgd训练速度很快。而adam法则在大规模数据集上可以高效的解决梯度下降及梯度爆炸问题。例如遇到长时间损失函数无法下降融合优化器会加大adam模块的权重,并赋予较低或零值给sgd模块,尝试继续使用adam法优化下降直到找到最优。目的是高
效解决训练中所发生的梯度下降及梯度爆炸等情况的发生。并且可以灵活适应各种场景需求。
[0075]
兼容优化法函数为:
[0076][0077]
其中,v
t
表示梯度值,g
t
表示梯度,β的一般经验值,可以设置成为0.9,w
sgd
为sgd的随机权重,w
adam
表示adam的随机权重,η
t
表示商品t的学习率,w
t
表示当前商品t下的随即权重,t表示商品编号。
[0078]
由于本实施方式仅针对逻辑回归的损失函数求最优解进行创新,其他函数暂不赘述。所修改部分为将求最优解方式更加具有兼容性,使得最优解求解更为高效。在推荐领域中,高效计算损失函数可以提高训练效率且针对在线训练均可能会有很好的提升。
[0079]
一种基于双a融合优化器多元记忆遗忘门的长短记忆模型的方法,包括以下步骤:
[0080]
s201从数据库获取产品及用户数据,对数据进行清洗;
[0081]
s202针对数据进行嵌入式方法进行处理并进行存储;
[0082]
s203使用大规模数据集训练兼容优化法逻辑回归模型;
[0083]
s204将预测结果是否点击该商品作为结果传出;
[0084]
图3是根据本技术实施方式提供的另一种嵌入兼容优化法逻辑回归模型的流程图,如图3所示,根据获取的商品及用户数据1在已有数据库中进行数据收集1,并对采集的数据进行数据清洗2,针对部分数据进行归一化处理方便后续建模。
[0085]
通过数据清洗处理后的数据先进行数据存储6。
[0086]
将数据清洗后的数据送入嵌入层进行特征处理3.
[0087]
将处理好的商品及用户数据送入兼容优化法逻辑回归模型进行训练4,将模型预测出的未来一段时间内的商品是否被点击的概率作为结果输出5,将输出的结果进行结果存储7。
[0088]
本实施方式的优点在于嵌入式操作针对特征的降维处理,并可将一些特征量化成向量形式,方便后续模型训练。兼容优化法则是在损失函数寻找最优解的过程中,起到灵活高效找到最优解的作用。本实施方式在推荐领域训练或是在线服务方面均在一定程度上提高其效率。
[0089]
本技术实施例还提供了一种逻辑回归模型的数据处理装置,需要说明的是,本技术实施例的逻辑回归模型的数据处理装置可以用于执行本技术实施例所提供的用于逻辑回归模型的数据处理方法。以下对本技术实施例提供的逻辑回归模型的数据处理装置进行介绍。
[0090]
图4是根据本技术实施例的逻辑回归模型的数据处理装置的示意图。如图4所示,该装置包括:确定模块42,处理模块44,下面对该装置进行详细说明。
[0091]
确定模块42,确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;处理模块44,与上述确定模块相连,将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的。
[0092]
通过上述装置,确定模块42定输入数据对应的目标向量,其中,目标向量为输入数
据根据嵌入算法得到的;处理模块44将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的,通过利用嵌入式算法将输入数据量化得到目标向量,再将目标向量输入利用优化算法得到的逻辑回归模型,进而得出目标向量对应的目标概率,解决了相关技术中的逻辑回归模型在对输入数据进行分类时,将输入数据直接输入由同类数据训练而成的逻辑回归模型,存在数据处理效率低,分类效率低的问题。进而达到了提高输入数据分类效率的技术效果。
[0093]
所述逻辑回归模型的数据处理装置包括处理器和存储器,上述确定模块42和处理模块44均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
[0094]
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来通过目标对象检测模型检测目标图像是否具有目标对象,在具有目标对象的情况下,识别目标对象姿态是否异常。
[0095]
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram),存储器包括至少一个存储芯片。
[0096]
本发明实施例提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现所述逻辑回归模型的数据处理方法。
[0097]
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述逻辑回归模型的数据处理方法。
[0098]
图5是根据本技术实施例提供的电子设备的示意图,如图5所示,本发明实施例提供了一种电子设备,电子设备50包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:
[0099]
确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的。
[0100]
可选的,将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率之前,方法还包括:获取训练数据和初始逻辑回归模型;通过训练数据采用优化算法对初始逻辑回归模型进行训练;在逻辑回归模型的损失函数值达到预设阈值的情况下,确定初始逻辑回归模型训练完成,将初始逻辑回归模型作为逻辑回归模型。
[0101]
可选的,获取训练数据和初始逻辑回归模型包括:获取数据库中存储的样本数据;对样本数据进行清洗,得到训练数据;创建初始逻辑回归模型。
[0102]
可选的,通过训练数据采用优化算法对初始逻辑回归模型进行训练包括:将训练数据输入初始逻辑回归模型,得到训练数据符合目标条件的预测概率;根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值,其中,优化函数包括梯度下降表达式和自适应动量随机优化表达式;根据预测概率和梯度值,采用损失函数,确定初始逻辑回归模型的损失函数值;在损失函数值未达到预设阈值的情况下,选取新的训练数据对初始逻辑回归模型进行训练,直至损失函数值达到预设阈值。
[0103]
可选的,根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值包括:根据梯度下降表达式的第一权重和自适应动量随机优化表达式的第二权重,以及优化函数的梯度下降表达式和自适应动量随机优化表达式,确定损失函数的梯度值;其中,第一权重和第二权重为预设值,第二权重小于第一权重,第二权重与第一权重的比值小于第一预设比值。
[0104]
可选的,通过损失函数值的变化情况,确定是否发生梯度爆炸;在发生梯度爆炸的情况下,将第二权重增大,对损失函数的梯度值进行更新,并确定更新后的损失函数值;根据更新后的损失函数值确定是否发生梯度爆炸,在更新后的损失函数值仍然发生梯度爆炸的情况下,对第二权重继续增大,直至更新后的损失函数值不发生梯度爆炸。
[0105]
可选的,确定输入数据对应的目标向量之后,方法还包括:将目标向量进行存储;在后续对逻辑回归模型进行再训练的情况下,获取目标向量对逻辑回归模型进行再训练。
[0106]
本文中的设备可以是服务器、pc、pad、手机等。
[0107]
本技术还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:确定输入数据对应的目标向量,其中,目标向量为输入数据根据嵌入算法得到的;将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率,其中,目标概率为输入数据符合目标条件的概率,逻辑回归模型为训练数据通过优化算法训练得到的。
[0108]
可选的,将目标向量输入逻辑回归模型,由逻辑回归模型输出目标向量对应的目标概率之前,方法还包括:获取训练数据和初始逻辑回归模型;通过训练数据采用优化算法对初始逻辑回归模型进行训练;在逻辑回归模型的损失函数值达到预设阈值的情况下,确定初始逻辑回归模型训练完成,将初始逻辑回归模型作为逻辑回归模型。
[0109]
可选的,获取训练数据和初始逻辑回归模型包括:获取数据库中存储的样本数据;对样本数据进行清洗,得到训练数据;创建初始逻辑回归模型。
[0110]
可选的,通过训练数据采用优化算法对初始逻辑回归模型进行训练包括:将训练数据输入初始逻辑回归模型,得到训练数据符合目标条件的预测概率;根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值,其中,优化函数包括梯度下降表达式和自适应动量随机优化表达式;根据预测概率和梯度值,采用损失函数,确定初始逻辑回归模型的损失函数值;在损失函数值未达到预设阈值的情况下,选取新的训练数据对初始逻辑回归模型进行训练,直至损失函数值达到预设阈值。
[0111]
可选的,根据优化算法的优化函数,确定初始逻辑回归模型的损失函数的梯度值包括:根据梯度下降表达式的第一权重和自适应动量随机优化表达式的第二权重,以及优化函数的梯度下降表达式和自适应动量随机优化表达式,确定损失函数的梯度值;其中,第一权重和第二权重为预设值,第二权重小于第一权重,第二权重与第一权重的比值小于第一预设比值。
[0112]
可选的,通过损失函数值的变化情况,确定是否发生梯度爆炸;在发生梯度爆炸的情况下,将第二权重增大,对损失函数的梯度值进行更新,并确定更新后的损失函数值;根据更新后的损失函数值确定是否发生梯度爆炸,在更新后的损失函数值仍然发生梯度爆炸的情况下,对第二权重继续增大,直至更新后的损失函数值不发生梯度爆炸。
[0113]
可选的,确定输入数据对应的目标向量之后,方法还包括:将目标向量进行存储;
在后续对逻辑回归模型进行再训练的情况下,获取目标向量对逻辑回归模型进行再训练。
[0114]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0115]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0116]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0117]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0118]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0119]
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。存储器是计算机可读介质的示例。
[0120]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0121]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0122]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。
因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0123]
以上仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1