通道修剪方法、装置、计算机设备及存储介质

文档序号:33050664发布日期:2023-01-24 23:15阅读:40来源:国知局
通道修剪方法、装置、计算机设备及存储介质

1.本发明涉及图像处理领域,具体而言,涉及通道修剪方法、装置、计算机设备及存储介质。


背景技术:

2.神经网络是一种可以实现非线性运算同时具有高冗余和高信息量的网络,神经网络中可以包括卷积层,卷积神经网络在计算机视觉任务处理中,例如图像处理中,取得优异的性能,但是包含卷积层的神经网络需要大量的参数和计算成本,导致很难在移动设备和嵌入式设备上部署,即使调整神经网络的架构,过度参数化和冗余依旧存在。
3.为了要解决上述问题,需要对包含卷积层的神经网络进行压缩,而对卷积层包括的通道进行修剪,是加速和压缩神经网络的有效方法;在现有技术中,对于通道修剪一般现根据经验定义不同层的特定修剪比,并手动制定修剪标准,导致修剪效率低,修剪效果差,进而影响神经网络的性能。


技术实现要素:

4.本发明要解决的技术问题是,在通道修剪时,需要手动指定修剪标准,效率低且效果差。
5.为解决上述问题,本发明提供一种通道修剪方法,所述方法应用于包含卷积层的神经网络,所述神经网络应用于图像处理,所述卷积层包括通道,所述方法包括:
6.根据图像数据,获取所述卷积层的秩;
7.根据所述图像数据,获取所述卷积层的熵;
8.根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;
9.根据所述总体指标得到每个所述卷积层的修剪比;
10.获取所述卷积层中通道的沙普利值;
11.根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
12.可选的,所述图像数据包括图层的数量,在所述根据图像数据,获取所述卷积层的秩前,所述方法还包括:
13.获取所述卷积层的通道总数量;
14.所述获取所述卷积层的秩,包括:
15.根据所述图像数据获取所述卷积层中每个所述通道对应的特征等级;
16.根据所有所述特征等级,获取所述卷积层的特征等级总值;
17.根据所述特征等级总值、所述卷积层的通道总数量以及秩公式,获取每个所述卷积层的秩,所述秩公式为:
[0018][0019]
其中,r(ci)是卷积层的秩,ni是卷积层ci的通道总数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,是所述特征等级。
[0020]
可选的,所述获取所述卷积层的熵,包括:
[0021]
根据所述通道总数量、所述特征等级总值以及归一化函数公式,得到所述通道的输出的概率分布,所述归一化函数公式为:
[0022][0023]
其中,ni是所述卷积层ci的通道数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,作为是所述卷积测ci输出的概率分布;
[0024]
根据所述概率分布、所述通道总数量以及熵公式,获取所述卷积层的熵,所述熵公式为:
[0025][0026]
其中,r(ci)是所述卷积层的秩,ni是卷积层ci的通道数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,是特征的等级。
[0027]
可选的,所述根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标,包括:
[0028]
根据所述卷积层的秩和所述卷积层的熵,获得规范化范围;
[0029]
根据所述规范化范围,获得融合函数;
[0030]
根据所述融合函数,得到所述总体指标。
[0031]
可选的,所述通道总数量包括已删除通道数量,所述根据所述总体指标得到每个所述卷积层的修剪比,包括:
[0032]
根据所述总体指标得到融合值;
[0033]
根据所述融合值,获取所述已删除通道数量;
[0034]
根据所述已删除通道数量和通道总数量,获得每个所述卷积层的修剪比。
[0035]
可选的,所述获取所述卷积层中通道的沙普利值,包括:
[0036]
从所述卷积层中的所有通道中选取任意两个或两个以上的通道作为一个联盟,获取多个联盟;
[0037]
根据所述联盟获取特征方程,并判断所述特征方程是否满足预设条件,若满足预设条件,则:
[0038]
根据所述特征方程和边际贡献公式,获取所述通道对包括所述通道的所有联盟的边际贡献值,
[0039]
根据所述边际贡献值、所述联盟、所述通道总数量以及平均贡献公式,获取所述通道的沙普利值。
[0040]
可选的,所述通道包括已删除通道和剩余通道;
[0041]
在所述根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪前,所述方法还包括:
[0042]
获取卷积层数量,
[0043]
根据所述已删除通道和剩余通道,获取所述通道的指示函数;
[0044]
所述根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中所述通道进行修剪,包括:
[0045]
根据所述沙普利值、所述指示函数、所述通道总数量、所述卷积层数量以及修剪函数,得到修剪参数,
[0046]
根据所述修剪参数和所述修剪比,对所述通道进行修剪。
[0047]
本发明的通道修剪方法,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0048]
本发明还提供一个通道修剪装置,应用于包含卷积层的神经网络,所述神经网络应用于图像处理,所述卷积层包括通道,所述装置包括:
[0049]
获取单元,用于根据图像数据,获取所述卷积层的秩,还用于根据所述图像数据,获取所述卷积层的熵;
[0050]
分析单元,用于根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;根据所述总体指标得到每个所述卷积层的修剪比;
[0051]
所述获取单元还用于获取所述卷积层中通道的沙普利值;
[0052]
修剪单元,用于根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
[0053]
本发明的通道修剪装置,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0054]
本发明还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述任意一项通道修剪方法。
[0055]
本发明的计算机设备,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表
示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0056]
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述任意一项通道修剪方法。
[0057]
本发明的计算机可读存储介质,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
附图说明
[0058]
图1为本发明实施例中通道修剪方法流程图;
[0059]
图2为本发明实施例中通道修剪方法示意图;
[0060]
图3为本发明实施例中通道修剪方法示意图;
[0061]
图4为本发明实施例中通道修剪方法实验验证性能对比图;
[0062]
图5为本发明实施例中通道修剪方法实验验证性能对比图;
[0063]
图6为本发明实施例中通道修剪方法实验验证性能对比图;
[0064]
图7为本发明实施例中通道修剪方法实验验证性能对比图;
[0065]
图8为本发明实施例中通道修剪方法实验验证性能对比图;
[0066]
图9为本发明实施例中通道修剪方法实验验证性能对比图;
[0067]
图10为本发明实施例中通道修剪方法实验验证性能对比图;
[0068]
图11为本发明实施例中通道修剪方法实验验证性能对比图;
[0069]
图12为本发明实施例中通道修剪方法实验验证性能对比图;
[0070]
图13为本发明实施例中通道修剪方法修剪比和融合值拟合曲线示意图;
[0071]
图14为本发明实施例中通道修剪方法修剪比和融合值拟合曲线示意图;
[0072]
图15为本发明实施例中通道修剪装置示意图;
[0073]
图16为本发明实施例中计算机设备示意图。
具体实施方式
[0074]
为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术的一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。
[0075]
本实施例提供一种通道修剪方法,所述方法应用于包含卷积层的神经网络,所述神经网络应用于图像处理,所述卷积层包括通道,所述方法包括:
[0076]
s1:根据图像数据,获取所述卷积层的秩;
[0077]
s2:根据所述图像数据,获取所述卷积层的熵;
[0078]
s3:根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;
[0079]
s4:根据所述总体指标得到每个所述卷积层的修剪比;
[0080]
s5:获取所述卷积层中通道的沙普利值;
[0081]
s6:根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
[0082]
其中,在处理图像时,低秩的卷积层中包含大量的冗余信息,需要将卷积层压缩的更加紧凑,由于不同图像处理下的每个特征图,几乎保持不变,因此,可以通过图像估计卷积层的秩;
[0083]
低熵的卷积层中包括的通道信息量较低,因此通过给定输入图像,估计卷积层的熵;
[0084]
卷积层的秩对应卷积层输出的冗余,卷积层的熵对应卷积层输出的信息量;
[0085]
后通过卷积层的秩和卷积层的熵获取卷积层的总体指标,作为图层信息的集中,并根据图层信息的集中,得到卷积层的修剪比;
[0086]
在按照修剪比修剪通道时,需要修剪对损失优化贡献最小的通道,因此,采用沙普利值来评估通道的贡献,根据沙普利值来对通道进行修剪。
[0087]
结合图2和图3所示,对图像批次进行处理时,分为两部分,包括预处理阶段和修剪阶段;
[0088]
在预处理阶段,输入采样图像批次,以获得卷积层中每个通道(所述通道以“c”表示)的秩和熵(所述秩以“r”表示和所述熵以“e”表示)、相应的融合值(所述融合值以“f”表示)和沙普利值(shapley values)(所述沙普利值以“s表示”);
[0089]
在修剪阶段,一层中的通道被视为玩家(players),负沙普利值值表示玩家对合作做出了不利贡献,在每层中,将沙普利值值最小的通道丢弃。
[0090]
本发明的通道修剪方法,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,根据卷积层的秩和卷积层的熵,获得总体指标,通过总体指标获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0091]
本技术的实施例中,所述图像数据包括图层的数量,在所述根据图像数据,获取所述卷积层的秩前,所述方法还包括:
[0092]
获取所述卷积层的通道总数量;
[0093]
所述获取所述卷积层的秩,包括:
[0094]
根据所述图像数据获取所述卷积层中每个所述通道对应的特征等级;
[0095]
根据所有所述特征等级,获取所述卷积层的特征等级总值;
[0096]
根据所述特征等级总值、所述卷积层的通道总数量以及秩公式,获取每个所述卷积层的秩,所述秩公式为:
[0097][0098]
其中,r(ci)是所述卷积层的秩,ni是卷积层ci的通道总数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,是所述特征等级。
[0099]
在本实施例中,在对卷积层的秩进行计算前,需要获取图像数据,利用少量图像批次,在所述图像中选取固定图像b,通过固定图像b来映射每个图层,并获取每个通道对应的特征等级,后对所有通道的特征等级进行求和得到特征等级总值,根据通道数量和特征等级总值,通过秩公式,得到卷积层平均的秩;
[0100]
其中,秩公式为:
[0101][0102]
r(ci)是卷积层的秩,ni是卷积层ci的通道总数量,j是ci中的第j个通道,b是图层数量,b是b中的第b个图层,是特征的等级。
[0103]
本发明的通道修剪方法,将卷积层中的冗余,通过卷积层的秩来表示卷积层的信息集中,方便后续对修剪比的获取,并提供一个合理的修剪标准,使图像处理精度更高。
[0104]
本技术实施例中,所述获取所述卷积层的熵,包括:
[0105]
根据所述通道总数量、所述特征等级总值以及归一化函数公式,得到所述通道的输出的概率分布,所述归一化函数公式为:
[0106][0107]
其中,ni是所述卷积层ci的通道数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,作为是所述卷积测ci输出的概率分布;
[0108]
根据所述概率分布、所述通道总数量以及熵公式,获取所述卷积层的熵,所述熵公式为:
[0109][0110]
其中,r(ci)是所述卷积层的秩,ni是卷积层ci的通道数量,j是ci中的第j个通道,b是所述图层的数量,b是b中的第b个图层,是特征的等级。
[0111]
在本实施例中,由于卷积层的熵与图层等级类似,所以根据softmax函数来映射通道在0与1之间的张量,将卷积测ci的输出作为概率分布来显示,所述softmax函数为:
[0112][0113]
其中,ni是卷积层ci的通道总数量,j是ci中的第j个通道,b是图层数量,b是b中的
第b个图层,作为是卷积测ci输出的概率分布;
[0114]
在得到后,根据熵公式,得到卷积层平均的熵,所述熵公式为:
[0115][0116]
其中,h(ci)是卷积层的熵,是卷积测ci输出的概率分布,j是ci中的第j个通道,ni是卷积层ci的通道总数量。
[0117]
本发明的通道修剪方法,通过将卷积层中的冗余,通过卷积层的秩来表示卷积层的信息集中,方便后续对修剪比的获取,并提供一个合理的修剪标准,减少对神经网络的危害,提高神经网络的性能,使图像处理的精度更高,提高图像处理的效率。
[0118]
本技术的实施例中,所述根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标,包括:
[0119]
根据所述卷积层的秩和所述卷积层的熵,获得规范化范围;
[0120]
根据所述规范化范围,获得融合函数;
[0121]
根据所述融合函数,得到所述总体指标。
[0122]
在本实施例中,当获取到卷积层的秩和熵中,可以发现,卷积层输出的秩和卷积层输出的熵几乎保持不变,但在不同图像批次下,秩和熵的值略有波动,并且,通道的等级和熵之间的内部变化也不完全一致,因此,为了消除以上的不一致,定义一个融合函数,并将秩和熵归一化到范围[a,b]中,所述融合函数囊括了这两个指标,获得了一个总体指标作为卷积层的信息,其中,融合函数为:
[0123][0124]
其中,o(ci)是卷积层ci的融合值,y代表r(ci)和h(ci),z代表{r(ci)和h(ci)},l为卷积层数量;将o(ci)规范化为范围[a,b];卷积层的融合值越小,表示所述卷积层信息较少,因此因该对其进行修剪。
[0125]
本发明的通道修剪方法,通过融合函数,通过融合函数获得整体指标,作为整个图层的信息集中,而信息集中的体现即为融合值,根据融合值分配每个卷积层的修剪比,降低对神经网络的危害,提高神经网络的性能,根据修剪规则对图像进行处理,从而提高图像处理的效率。
[0126]
本技术实施例中,所述通道总数量包括已删除通道数量,所述根据所述总体指标得到每个所述卷积层的修剪比,包括:
[0127]
根据所述总体指标得到融合值;
[0128]
根据所述融合值,获取所述已删除通道数量;
[0129]
根据所述已删除通道数量和通道总数量,获得每个所述卷积层的修剪比。
[0130]
在本实施例中,卷积层ci中的通道可以分为两组,包括已删除通道和剩余通道,已
删除通道ui,即剩余通道qi,即,即根据已删除数量和通道总数量获取每个卷积层的修剪比。
[0131]
本发明的通道修剪方法,通过融合值分配卷积层的修剪比,即根据每个卷积层的冗余和信息量分配所述卷积层的修剪比,替代现有技术中的手动设定修剪比的技术方案,并参考了压缩灵敏度,使对卷积层的修剪更加精准,使图像处理的精度更高,降低了对神经网络的危害。
[0132]
本技术实施例中,所述获取所述卷积层中通道的沙普利值,包括:
[0133]
从所述卷积层中的所有通道中选取任意两个或两个以上的通道作为一个联盟,获取多个联盟;
[0134]
根据所述联盟获取特征方程,并判断所述特征方程是否满足预设条件,若满足预设条件,则:
[0135]
根据所述特征方程和边际贡献公式,获取所述通道对包括所述通道的所有联盟的边际贡献值,
[0136]
根据所述边际贡献值、所述联盟、所述通道总数量以及平均贡献公式,获取所述通道的沙普利值。
[0137]
在本实施例中,价值从玩家参与合作的环境中产出,奖励在于玩家的个人贡献,这种贡献被称为沙普利值,在此基础上引入通道修剪方法,将卷积层作为游戏中多个玩家合作以产生输出,将卷积测ci中的ni个通道作为合集,即在所述p集合中选取任意两个或两个以上的通道作为一个联盟m,并获取多个联盟,其中根据联盟m获取特征方程v(m),若满足和不相交子集m1,v(m1∪m2)≥v(m1)+v(m2),根据边际贡献公式计算通道对包含所述通道的所有联盟的边际贡献,所述边际贡献公式为:
[0138][0139]
若所述函数f^将通道的每个子集从激活输出映射到实数,通过平均贡献公式,获得沙普利值,所述平均贡献公式为:
[0140][0141]
其中,表示所述通道对卷积层的平均贡献,即沙普利值。
[0142]
本发明的通道修剪方法,利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,使图像处理的精度更高,提高图像处理的效率。
[0143]
本技术的实施例中,所述通道包括已删除通道和剩余通道;
[0144]
在所述根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道
进行修剪前,所述方法还包括:
[0145]
获取卷积层数量,
[0146]
根据所述已删除通道和剩余通道,获取所述通道的指示函数;
[0147]
所述根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中所述通道进行修剪,包括:
[0148]
根据所述沙普利值、所述指示函数、所述通道总数量、所述卷积层数量以及修剪函数,得到修剪参数,
[0149]
根据所述修剪参数和所述修剪比,对所述通道进行修剪。
[0150]
在本实施例中,获取卷积层数量,并设为l,并通过修剪函数将通道的修剪表述为优化的问题,其中,所述修剪函数为:
[0151][0152]
其中,是所述指示函数,当时,则当则通过修剪函数,尽量减少已删除的通道信息,即识别最不重要的频道。
[0153]
本发明的通道修剪方法,利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,为通道的修剪提供合理的修剪标准,使图像处理的精度更高,同时降低了对神经网络的危害,提高神经网络的性能。
[0154]
对于通道修剪方法的验证,可以通过在cifar-10和imagenet上进行了修剪不同架构来进行实验,包括vggnet、resnet和densenet,实验是在两个nvidia rtx 3090cpu上进行,随机选择1024和128张图像,分别用于估计cifar-10和imagenet的卷积层信息;并且将该范围设置为[1,10],用于缩放卷积层的秩、熵和聚变值;
[0155]
使用sgd在cifar-10上训练200个模型,在imagenet上训练90个模型;批处理大小为256,初始学习率为0.1;在cifar-10上使用top-1精度,在imagenet上使用top-1和top-5精度,用于评估分类能力。采用flop和参数反映加速度和压缩比;在cifar-10上,根据预训练模型计算每个层的沙普利值;
[0156]
通过eqn获得卷积层输出的秩、熵和相应的聚变值,通过保持相同特征地图大小的“阶段”表示一堆图层;在每个阶段内,对融合值进行求和,并将结果除以层数,由较浅层组成的阶段的聚变值大于由较深层组成的阶段的聚变值,这表明较浅层的信息浓度高于较深层的信息浓度;因此,较浅层的修剪比可以设置为较小的值,而较深层的修剪比应设置为较大的修剪比,在实验中,以每个阶段的方式修剪网络,即一个阶段的修剪比表示阶段内层中要删除的通道总数量;
[0157]
结合图4至图12所示,通过在cifar-10上采用所述方法进行修剪过的vgg-16、resnet-56/110和densenet-40的性能;
[0158]
针对不同的网络结构进行实验,得到准确性的变化数据;
[0159]
其中,针对vgg-16,与sss和cp相比,cicc的精度下降较低(0.74%v.s.sss0.94%,cp2.46%);针对resnet-56,在更大的加速度比(fpgm58.1%v.s.52.6%,dbp52.0%)和压缩率(dbp43.9%v.s.40.0%)下,cicc的准确率下降了0.28%,低于fpgm(0.33%)和dbp(0.42%);针对resnet-110,cicc精度提高了0.88%,高于sfp(0.18%)和hrank(0.73%);
此外,cicc的准确性提高了(0.48%),高于fpgm(0.16%);针对densenet-40,与hrank相比,cicc具有压缩模型的潜力,具体来说,尽管cicc的精度下降了0.14%,但实现了51.9%的压缩比;
[0160]
结合不同的加速度,当加速度比不超过51.8%时,本发明的通道修剪方法比基线模型(93.68%)的精度更高,本发明的通道修剪方法为注入了更有效的间隔,这有助于规范神经网络,为通道的修剪提供合理的修剪标准,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0161]
结合图13和图14所示,针对修剪比和融合值之间的拟合曲线,首先获取一个幂函数,以拟合要删除的通道总数量与卷积层的融合值之间的关系:f(x)=a*xb+c,其中a=44.58,b=-3.56和c=11.85,结合图15至图16所示,显示了用于估计关系的三条曲线。
[0162]
结合图15所示,本发明还提供一种通道修剪装置100,应用于包含卷积层的神经网络,所述神经网络应用于图像处理,所述卷积层包括通道,所述装置包括:
[0163]
获取单元110,用于根据图像数据,获取所述卷积层的秩,还用于根据所述图像数据,获取所述卷积层的熵;
[0164]
分析单元120,用于根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;根据所述总体指标得到每个所述卷积层的修剪比;
[0165]
所述获取单元110还用于获取所述卷积层中通道的沙普利值;
[0166]
修剪单元130,用于根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
[0167]
在本技术的一个实施例中,
[0168]
所述获取单元110还用于:获取所述卷积层的通道总数量;根据所述图像数据获取所述卷积层中每个所述通道对应的特征等级;
[0169]
根据所有所述特征等级,获取所述卷积层的特征等级总值;
[0170]
根据所述特征等级总值、所述卷积层的通道总数量以及秩公式,获取每个所述卷积层的秩;
[0171]
根据所述通道总数量、所述特征等级总值以及归一化函数公式,得到所述通道的输出的概率分布;
[0172]
根据所述概率分布、所述通道总数量以及熵公式,获取所述卷积层的熵;
[0173]
所述分析单元120还用于,根据所述卷积层的秩和所述卷积层的熵,获得规范化范围;
[0174]
根据所述规范化范围,获得融合函数;
[0175]
根据所述融合函数,得到所述总体指标;
[0176]
根据所述总体指标得到融合值;
[0177]
根据所述融合值,获取所述已删除通道数量;
[0178]
根据所述已删除通道数量和通道总数量,获得每个所述卷积层的修剪比;
[0179]
所述获取单元110还用于,从所述卷积层中的所有通道中选取任意两个或两个以上的通道作为一个联盟,获取多个联盟;
[0180]
根据所述联盟获取特征方程,并判断所述特征方程是否满足预设条件,若满足预设条件,则:
[0181]
根据所述特征方程和边际贡献公式,获取所述通道对包括所述通道的所有联盟的边际贡献值,
[0182]
根据所述边际贡献值、所述联盟、所述通道总数量以及平均贡献公式,获取所述通道的沙普利值;
[0183]
所述获取单元110还用于获取卷积层数量,根据所述已删除通道和剩余通道,获取所述通道的指示函数;
[0184]
所述修剪单元130还用于根据所述沙普利值、所述指示函数、所述通道总数量、所述卷积层数量以及修剪函数,得到修剪参数,根据所述修剪参数和所述修剪比,对所述通道进行修剪。
[0185]
本发明的通道修剪装置,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0186]
结合图16所示,本发明还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
[0187]
s1:根据图像数据,获取所述卷积层的秩;
[0188]
s2:根据所述图像数据,获取所述卷积层的熵;
[0189]
s3:根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;
[0190]
s4:根据所述总体指标得到每个所述卷积层的修剪比;
[0191]
s5:获取所述卷积层中通道的沙普利值;
[0192]
s6:根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
[0193]
本发明的计算机设备,对于用于图像处理的神经网络,通过将神经网络中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0194]
本发明还提供一种计算机可读存储介质,其中存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
[0195]
s1:根据图像数据,获取所述卷积层的秩;
[0196]
s2:根据所述图像数据,获取所述卷积层的熵;
[0197]
s3:根据所述卷积层的秩和所述卷积层的熵,获取所述卷积层的总体指标;
[0198]
s4:根据所述总体指标得到每个所述卷积层的修剪比;
[0199]
s5:获取所述卷积层中通道的沙普利值;
[0200]
s6:根据所述通道的沙普利值和所述卷积层的修剪比,对所述卷积层中的通道进行修剪。
[0201]
本发明的计算机可读存储介质,对于用于图像处理的神经网络,通过将神经网络
中包括的卷积层中的冗余和信息量指标定义成卷积层的秩和卷积层的熵,并根据融合函数将其作为卷积层的信息集中,通过信息集中获取对应的修剪比,同时利用每个通道的沙普利值,来表示通道对于优化的贡献大小,根据贡献大小和修剪比进行修剪,降低对神经网络的危害,提高神经网络的性能,从而提高图像处理的效率。
[0202]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0203]
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0204]
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1