一种模型参数优化选择方法、系统、计算机设备和存储介质与流程

文档序号:28597229发布日期:2022-01-22 10:37阅读:115来源:国知局
一种模型参数优化选择方法、系统、计算机设备和存储介质与流程

1.本技术涉及多目标求解方法技术领域,特别是涉及一种模型参数优化选择方法、系统、计算机设备和计算机可读存储介质。


背景技术:

2.当前,随着人工智能技术的不断发展,机器学习的模型也越来越多样化、复杂化,这主要体现在模型的参数维度和取值越来越多,不同的参数组合训练出来的模型效果往往天差地别。而模型参数的选择通常是靠经验即手动调参,这个过程是一个费时费力的过程。一个模型的好坏主要体现它的泛化能力上,而泛化误差可分解为偏差、方差,两者之间的关系如图1所示。其中,偏差刻画的是算法本身的拟合能力,代表学习算法的期望预测与真实结果的偏离程度;方差则刻画了数据扰动所造成的影响,代表同样大小的训练集的变动所导致的学习性能的变化。由上可见,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。对于特定的学习任务,为了取得好的泛化性能,则需使偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
3.目前针对相关技术中,存在以下瓶颈,尚未提出有效解决方案:
4.1)机器学习的模型也越来越多样化、复杂化;模型的参数维度和取值也越来越多;
5.2)模型参数的选择通常是靠经验,费时费力;
6.3)对于特定的学习任务,为了取得好的泛化性能,则需使偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响要小。
7.因此,基于以上现有技术中存在的问题,本发明针对机器学习中超参数选择效率低下,不准确的问题,本文从模型泛化能力出发,以最小化模型泛化偏差和误差为目标,对模型的参数进行优化选择,提供一个更高效的参数智能选择方案。


技术实现要素:

8.本技术实施例提供了一种模型参数优化选择方法、系统、计算机设备和计算机可读存储介质,以解决针对机器学习中超参数选择效率低下,不准确的问题,本文从模型泛化能力出发,以最小化模型泛化偏差和误差为目标,对模型的参数进行优化选择,提供一个更高效的参数智能选择方案。
9.第一方面,本技术实施例提供了一种模型参数优化选择方法,包括以下步骤:
10.个体初始化步骤:将模型对应的所有参数进行分类,并对分类后的参数进行自然数编码,基于自然数编码初始化生成包含多个自然数编码的集合,自然数编码集合为一个个体;
11.种群初始化步骤:基于初始化生成的多个个体及预设种群规模进行种群初始化,种群包含多个个体;
12.优化值计算步骤:针对种群中的各个个体,将个体的参数传入内层机器学习模型进行计算,得到参数的最小化泛化偏差和最小化泛化方差;
13.种群进化步骤:基于种群中各个个体的参数的最小化泛化偏差和最小化泛化方差,采用选择、交叉、变异操作生成父代后,继续迭代执行优化值计算步骤,直到执行到预设迭代代数后停止,获得优化的参数的组合,实现模型参数的优化选择。
14.在本发明实施例中,上述最小化泛化偏差为:
15.obj1=(ed[f(x;d)]-y)2[0016]
其中:
[0017]
x—代表输入的参数;
[0018]
y—代表x在数据集y的真实标记;
[0019]
f(x;d)—代表训练集d上学得模型f在x上的预测输出;
[0020]
ed—代表训练集d上的期望值。
[0021]
在本发明实施例中,上述最小化泛化方差为:
[0022]
obj2=ed[(f(x;d)-ed[f(x;d)])2]
[0023]
其中:
[0024]
ed—代表训练集d上的期望值。
[0025]
在本发明实施例中,上述种群进化步骤包括:
[0026]
选择步骤:基于各个个体参数的最小化泛化偏差和最小化泛化方差,对种群进行非劣分层排序,计算各个个体拥挤度,选择适应度更优的个体进入下一代个体,并从下一代个体中两两选择父体配对;
[0027]
交叉步骤:采用顺序交叉法,将配对的父体顺序完成交叉,生成交叉父体;
[0028]
变异步骤:采用逆转变异法,将交叉父体的任意两个自然数编码位置间的顺序倒置,完成变异,生成子代;
[0029]
调整步骤:对子代的每个个体基于预设规则及取值范围进行可行性调整;
[0030]
合并步骤:将完成可行性调整的子代与父代合并为大种群,执行优化值计算步骤。
[0031]
第二方面,本技术实施例提供了一种模型参数优化选择系统,采用如上所述模型参数优化选择方法,包括以下模块:
[0032]
个体初始化模块:将模型对应的所有参数进行分类,并对分类后的参数进行自然数编码,基于自然数编码初始化生成包含多个自然数编码的集合,自然数编码集合为一个个体;
[0033]
种群初始化模块:基于初始化生成的多个个体及预设种群规模进行种群初始化,种群包含多个个体;
[0034]
优化值计算模块:针对种群中的各个个体,将个体的参数传入内层机器学习模型进行计算,得到参数的最小化泛化偏差和最小化泛化方差;
[0035]
种群进化模块:基于种群中各个个体的参数的最小化泛化偏差和最小化泛化方差,采用选择、交叉、变异操作生成父代后,继续迭代执行优化值计算,直到执行到预设迭代代数后停止,获得优化的参数的组合,实现模型参数的优化选择。
[0036]
本发明实施例中,上述最小化泛化偏差为:
[0037]
obj1=(ed[f(x;d)]-y)2[0038]
其中:
[0039]
x—代表输入的参数;
[0040]
y—代表x在数据集y的真实标记;
[0041]
f(x;d)—代表训练集d上学得模型f在x上的预测输出;
[0042]
ed—代表训练集d上的期望值。
[0043]
本发明实施例中,上述最小化泛化方差为:
[0044]
obj2=ed[(f(x;d)-ed[f(x;d)])2]
[0045]
其中:
[0046]
ed—代表训练集d上的期望值。
[0047]
本发明实施例中,上述种群进化模块包括:
[0048]
选择模块:基于各个个体参数的最小化泛化偏差和最小化泛化方差,对种群进行非劣分层排序,计算各个个体拥挤度,选择适应度更优的个体进入下一代个体,并从下一代个体中两两选择父体配对;
[0049]
交叉模块:采用顺序交叉法,将配对的父体顺序完成交叉,生成交叉父体;
[0050]
变异模块:采用逆转变异法,将交叉父体的任意两个自然数编码位置间的顺序倒置,完成变异,生成子代;
[0051]
调整模块:对子代的每个个体基于预设规则及取值范围进行可行性调整;
[0052]
合并模块:将完成可行性调整的子代与父代合并为大种群,继续执行优化值计算。
[0053]
第三方面,本技术实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的模型参数优化选择方法。
[0054]
第四方面,本技术实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的模型参数优化选择方法。
[0055]
相比于现有技术,本发明具有有益效果:
[0056]
1)本发明提出了一种针对机器学习模型超参数的智能选择的方法;
[0057]
2)本发明提出了一种如何在考虑模型方差和偏差后选择最优参数的多目标优化方法;
[0058]
3)本发明方法的模型参数的选择依靠自动化计算,节省人力物力;
[0059]
5)本发明方法对于特定的学习任务,取得好的泛化性能,偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
附图说明
[0060]
此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
[0061]
图1为现有技术偏差与方差示意图;
[0062]
图2为本发明方法流程示意图;
[0063]
图3为本发明具体实施例nsga-ii算法流程图;
[0064]
图4为本发明系统结构示意图;
[0065]
图5为计算机设备的硬件结构示意图。
[0066]
以上图中:
[0067]
10、个体初始化模块,20、种群初始化模块,30、优化值计算模块,40、种群进化模块
[0068]
81、处理器;82、存储器;83、通信接口;80、总线。
具体实施方式
[0069]
为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。基于本技术提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。
[0070]
显而易见地,下面描述中的附图仅仅是本技术的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本技术应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本技术公开的内容相关的本领域的普通技术人员而言,在本技术揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本技术公开的内容不充分。
[0071]
在本技术中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本技术所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
[0072]
除非另作定义,本技术所涉及的技术术语或者科学术语应当为本技术所属技术领域内具有一般技能的人士所理解的通常意义。本技术所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本技术所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本技术所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本技术所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本技术所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
[0073]
本技术所涉及的模型参数优化选择方法是一种可用于针对机器学习模型超参数的智能选择的方法;本发明方法提出了一种如何在考虑模型方差和偏差后选择最优参数的多目标优化方法;本发明方法对于特定的学习任务,取得好的泛化性能,偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
[0074]
本发明涉及到的帕累托最优解指:对于最小化多目标优化问题,对于n个目标分量fi(x),i=1

n,任意给定两个决策变量xa,xb,如果有以下两个条件成立,则称xa支配xb。如果对于一个决策变量,不存在其他决策变量能够支配他,那么就称该决策变量为非支配解,也叫帕累托最优解。
[0075]
1.对于都有fi(xa)≤fi(xb)成立
[0076]
2.都有fi(xa)≤fi(xb)成立
[0077]
此外,本发明采用nsga
‑ⅱ
算法为:
[0078]
nsga
‑ⅱ
是带有精英保留策略的快速非支配多目标优化遗传算法,是一种基于帕累托最优解的多目标优化算法。该算法在初始遗传算法的基础上,采用了精英保留策略对种群内个体进行选择,并引入拥挤度和非支配排序的概念,使得种群表现优良的个体得以延续保留。其中,拥挤度主要在不同的目标函数上进行操作,对于聚集密度较小的点,选中的概率就会越大,这保证了种群的多样性。而非支配排序则是基于帕累托最优的概念对不同的解进行筛选,保证种群内良好的基因。
[0079]
图2为本发明模型参数优化选择方法示意图,如图2所示,本技术实施例提供了一种模型参数优化选择方法,包括以下步骤:
[0080]
个体初始化步骤s10:将模型对应的所有参数进行分类,并对分类后的参数进行自然数编码,基于自然数编码初始化生成包含多个自然数编码的集合,自然数编码集合为一个个体;
[0081]
种群初始化步骤s20:基于初始化生成的多个个体及预设种群规模进行种群初始化,种群包含多个个体;
[0082]
优化值计算步骤s30:针对种群中的各个个体,将个体的参数传入内层机器学习模型进行计算,得到参数的最小化泛化偏差和最小化泛化方差;
[0083]
种群进化步骤s40:基于种群中各个个体的参数的最小化泛化偏差和最小化泛化方差,采用选择、交叉、变异操作生成父代后,继续迭代执行优化值计算步骤s30,直到执行到预设迭代代数后停止,获得优化的参数的组合,实现模型参数的优化选择。
[0084]
在本发明实施例中,上述最小化泛化偏差为:
[0085]
obj1=(ed[f(x;d)]-y)2[0086]
其中:
[0087]
x—代表输入的参数;
[0088]
y—代表x在数据集y的真实标记;
[0089]
f(x;d)—代表训练集d上学得模型f在x上的预测输出;
[0090]
ed—代表训练集d上的期望值。
[0091]
在本发明实施例中,上述最小化泛化方差为:
[0092]
obj2=ed[(f(x;d)-ed[f(x;d)])2]
[0093]
其中:
[0094]
ed—代表训练集d上的期望值。
[0095]
在本发明实施例中,上述种群进化步骤s40包括:
[0096]
选择步骤:基于各个个体参数的最小化泛化偏差和最小化泛化方差,对种群进行非劣分层排序,计算各个个体拥挤度,选择适应度更优的个体进入下一代个体,并从下一代个体中两两选择父体配对;
[0097]
交叉步骤:采用顺序交叉法,将配对的父体顺序完成交叉,生成交叉父体;
[0098]
变异步骤:采用逆转变异法,将交叉父体的任意两个自然数编码位置间的顺序倒置,完成变异,生成子代;
[0099]
调整步骤:对子代的每个个体基于预设规则及取值范围进行可行性调整;
[0100]
合并步骤:将完成可行性调整的子代与父代合并为大种群,迭代执行优化值计算步骤s30。
[0101]
以下结合附图对本发明具体实施例进行详细说明:
[0102]
本发明提供一种机器学习模型参数选取的方法,以最小化模型泛化偏差和方差为目标,对模型的参数集进行智能选择,提供了一种求解该优化问题的多目标算法。
[0103]
1、优化目标
[0104]
本问题以回归任务为例,包括两个目标,目标1是最小化模型泛化偏差,目标2是最小化模型泛化方差。从图1可知,这两个目标是冲突的,因此应该尽可能多的给出帕累托最优解,再根据实际的学习任务,去衡量取舍二者,最后选择相应的参数组合。
[0105]
目标1:最小化泛化偏差
[0106]
obj1=(ed[f(x;d)]-y)2[0107]
目标2:最小化泛化方差
[0108]
obj2=ed[(f(x;d)-ed[f(x;d)])2]
[0109]
其中:
[0110]
x—代表测试的样本数据;
[0111]
y—代表x在数据集的真实标记;
[0112]
f(x;d)—代表训练集d上学得模型f在x上的预测输出;
[0113]
ed—代表训练集上的期望值。
[0114]
本发明具体实施例中,假设预测未来北京某小区的房价,那么数据集里面一行记录的数据就包括很多与房价这个值有关的其他属性值,比如地理位置,居民人均收入等等,这些就是对应的x,然后在这些属性值特定取值下每行最后有一个对应的房价,这个就是y。
[0115]
2、图3为本发明算法示意图,如图3所示,本发明以nsga-ii算法为基础,设计的求解步骤如下所示:
[0116]
step0.染色体生成。首先将模型对应的各个参数罗列出来形成大的参数集合,有多少种参数便对应有多少个基因,对所有参数进行自然数编码,以神经网络为例,假设有网络层数、网络节点、dropout比率、正则化参数4个参数,则{3621}代表网络层数选择的是待搜索层数集合中的第三个值,其他以此类推。
[0117]
step1.设置最大迭代代数imax。令i=0。
[0118]
step2.种群初始化:种群规模为50,个体随机生成。个体为{3621},{2451}...,种群由50个个体组成,个体即一个染色体;
[0119]
step3.对个体进行可行性调整操作,使其满足参数选择范围。例如:网络层数的取值范围为最大为7层;
[0120]
step4.计算各个体的各目标函数值。将参数传入内层机器学习模型进行训练,得到两个目标函数值偏差和方差。
[0121]
step5.对种群进行非劣分层排序,并计算各个体拥挤度。利用两规模联赛法,根据分层排序和拥挤度,选择适应度更高的个体进入下一代,保证种群的差异性和优良性。从下一代种群中选择两个个体作为父体。重复选择父体这一操作,并将所有父体配对放入交配池。实现父体两两配对。
[0122]
step6.交叉。采用顺序交叉法,首先随机生成一串0/1的值,得到一个具有n个基因
位的交叉算子,例如参数数量为4时的{1,0,0,1}。首先,对应1基因位的位置,从父体1中相应位置拷贝而来;继而,对应0基因位的位置,按照各基因在父体2中的顺序依次拷贝而来。父体1:{3621}和父体2:{2451}

{3451}。
[0123]
step7.变异。采用逆转变异法,随机选择两个基因位,将这两个位置间的顺序倒置。例如:将个体{3621}倒置为{3261};
[0124]
step8.对子代个体进行可行性调整。
[0125]
step9.合并子代与父代个体为大种群,对大种群进行非劣分层排序,并计算各个体拥挤度,根据分层排序、拥挤度和种群规模,选择下一代个体。
[0126]
step10.更新种群,i=i+1。若i《imax,转入step4;否则,输出可行个体,停止。
[0127]
图4为本发明模型参数优化选择系统示意图,如图4所示,本发明还提供了一种模型参数优化选择系统100,采用如上所述模型参数优化选择方法,包括以下模块:
[0128]
个体初始化模块10:将模型对应的所有参数进行分类,并对分类后的参数进行自然数编码,基于自然数编码初始化生成包含多个自然数编码的集合,自然数编码集合为一个个体;
[0129]
种群初始化模块20:基于初始化生成的多个个体及预设种群规模进行种群初始化,种群包含多个个体;
[0130]
优化值计算模块30:针对种群中的各个个体,将个体的参数传入内层机器学习模型进行计算,得到参数的最小化泛化偏差和最小化泛化方差;
[0131]
种群进化模块40:基于种群中各个个体的参数的最小化泛化偏差和最小化泛化方差,采用选择、交叉、变异操作生成父代后,继续执行优化值计算,直到执行到预设迭代代数后停止,获得优化的参数的组合,实现模型参数的优化选择。
[0132]
本发明实施例中,上述最小化泛化偏差为:
[0133]
obj1=(ed[f(x;d)]-y)2[0134]
其中:
[0135]
x—代表输入的参数;
[0136]
y—代表x在数据集y的真实标记;
[0137]
f(x;d)—代表训练集d上学得模型f在x上的预测输出;
[0138]
ed—代表训练集d上的期望值。
[0139]
本发明实施例中,上述最小化泛化方差为:
[0140]
obj2=ed[(f(x;d)-ed[f(x;d)])2]
[0141]
其中:
[0142]
ed—代表训练集d上的期望值。
[0143]
本发明实施例中,上述种群进化模块40包括:
[0144]
选择模块:基于各个个体参数的最小化泛化偏差和最小化泛化方差,对种群进行非劣分层排序,计算各个个体拥挤度,选择适应度更优的个体进入下一代个体,并从下一代个体中两两选择父体配对;
[0145]
交叉模块:采用顺序交叉法,将配对的父体顺序完成交叉,生成交叉父体;
[0146]
变异模块:采用逆转变异法,将交叉父体的任意两个自然数编码位置间的顺序倒置,完成变异,生成子代;
[0147]
调整模块:对子代的每个个体基于预设规则及取值范围进行可行性调整;
[0148]
合并模块:将完成可行性调整的子代与父代合并为大种群,继续执行优化值计算。
[0149]
另外,结合图1描述的本技术实施例的模型参数优化选择方法可以由计算机设备来实现。图5为根据本技术实施例的计算机设备的硬件结构示意图。
[0150]
计算机设备可以包括处理器81以及存储有计算机程序指令的存储器82。
[0151]
具体地,上述处理器81可以包括中央处理器(cpu),或者特定集成电路(application specific integrated circuit,简称为asic),或者可以被配置成实施本技术实施例的一个或多个集成电路。
[0152]
其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(hard disk drive,简称为hdd)、软盘驱动器、固态驱动器(solid state drive,简称为ssd)、闪存、光盘、磁光盘、磁带或通用串行总线(universal serial bus,简称为usb)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在数据处理装置的内部或外部。在特定实施例中,存储器82是非易失性(non-volatile)存储器。在特定实施例中,存储器82包括只读存储器(read-only memory,简称为rom)和随机存取存储器(random access memory,简称为ram)。在合适的情况下,该rom可以是掩模编程的rom、可编程rom(programmable read-only memory,简称为prom)、可擦除prom(erasable programmable read-only memory,简称为eprom)、电可擦除prom(electrically erasable programmable read-only memory,简称为eeprom)、电可改写rom(electrically alterable read-only memory,简称为earom)或闪存(flash)或者两个或更多个以上这些的组合。在合适的情况下,该ram可以是静态随机存取存储器(static random-access memory,简称为sram)或动态随机存取存储器(dynamic random access memory,简称为dram),其中,dram可以是快速页模式动态随机存取存储器(fast page mode dynamic random access memory,简称为fpmdram)、扩展数据输出动态随机存取存储器(extended date out dynamic random access memory,简称为edodram)、同步动态随机存取内存(synchronous dynamic random-access memory,简称sdram)等。
[0153]
存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。
[0154]
处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意一种模型参数优化选择方法。
[0155]
在其中一些实施例中,计算机设备还可包括通信接口83和总线80。其中,如图5所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。
[0156]
通信接口83用于实现本技术实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
[0157]
总线80包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(data bus)、地址总线(address bus)、控制总线(control bus)、扩展总线(expansion bus)、局部总线(local bus)。举例来说而非限制,总线80可包括图形加速接口(accelerated graphics port,简称为agp)或其他图形总线、增
强工业标准架构(extended industry standard architecture,简称为eisa)总线、前端总线(front side bus,简称为fsb)、超传输(hyper transport,简称为ht)互连、工业标准架构(industry standard architecture,简称为isa)总线、无线带宽(infiniband)互连、低引脚数(low pin count,简称为lpc)总线、存储器总线、微信道架构(micro channel architecture,简称为mca)总线、外围组件互连(peripheral component interconnect,简称为pci)总线、pci-express(pci-x)总线、串行高级技术附件(serial advanced technology attachment,简称为sata)总线、视频电子标准协会局部(video electronics standards association local bus,简称为vlb)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本技术实施例描述和示出了特定的总线,但本技术考虑任何合适的总线或互连。
[0158]
该计算机设备可以实现结合图1描述的模型参数优化选择方法。
[0159]
另外,结合上述实施例中的模型参数优化选择方法,本技术实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种模型参数优化选择方法。
[0160]
本发明模型参数优化选择方法与现有技术相比,本发明方法是一种针对机器学习模型超参数的智能选择的方法;本发明提出了一种如何在考虑模型方差和偏差后选择最优参数的多目标优化方法;本发明方法的模型参数的选择依靠自动化计算,节省人力物力;本发明方法对于特定的学习任务,取得好的泛化性能,偏差较小,既能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
[0161]
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0162]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1