基于混层级精度运算的稀疏神经网络处理器、方法与流程

文档序号:28601747发布日期:2022-01-22 11:26阅读:72来源:国知局
基于混层级精度运算的稀疏神经网络处理器、方法与流程

1.本技术涉及深度学习技术领域,尤其涉及基于混层级精度运算的稀疏神经网络处理器、 方法。


背景技术:

2.为减轻神经网络的计算量和储存负担,对网络进行剪枝去除冗余参数是一种非常有效的 加速神经网络的方式。剪枝在网络模型中引入了大量稀疏权重数据,要利用网络稀疏性,需 要在执行网络模型时跳过随机分布的零权重数据。一般神经网络的激活值和权重都是连续存 储在缓存中,读取时也连续读取,普通的神经网络处理器无法做到跳过零权重数据、只对非 零权重数据进行计算。
3.为了保证精度的前提下最大化地减少计算量、降低功耗,神经网络不同层会采用不同的 数据精度(数据位宽)参与计算,传统的神经网络处理器能够处理的模型精度单一,不支持 混层级精度的计算。因此,本技术旨在提供一种既能在高并行度下加载和操作非零权重数据, 又能支持混层级精度计算的神经网络处理器。


技术实现要素:

4.为了解决神经网络处理器能够处理的模型精度单一,不支持混层级精度计算,且难以同 时实现只对非零权重进行计算的技术问题,本技术通过以下实施例公开了一种基于混层级精 度运算的稀疏神经网络处理器、方法。
5.本技术第一方面公开了一种基于混层级精度运算的稀疏神经网络处理器,包括:权重缓 存模块、激活值缓存模块、激活值索引模块、乘累加运算模块及输出缓存模块,所述乘累加 运算模块包括乘累加运算单元及寄存器,所述乘累加运算单元的精度为预设的第一固定位宽;
6.权重缓存模块用于获取压缩后的稀疏权重,并将所述压缩后的稀疏权重进行分行存储, 其中每行存储的数据宽度为所述第一固定位宽;还用于在卷积运算过程中对所述压缩后的稀 疏权重进行解码,将解码得到的非零权重值按行顺次输出至所述乘累加运算单元,以及将解 码得到的非零权重位置信息按行顺次输出至所述激活索引模块;
7.激活值缓存模块用于分行存储神经网络的激活值,其中每行存储的数据宽度为所述第一 固定位宽;还用于在卷积运算过程中对所述激活值进行读取,按行顺次输出至所述激活索引 模块;
8.激活值索引模块用于根据接收到的每行非零权重位置信息,对接收到的每行激活值进行 选取,并将选取得到的激活值按行顺次输出至所述乘累加运算单元;
9.所述乘累加运算单元用于对接收到的每行激活值及每行非零权重值进行两两乘累加运 算,获取多个乘累加运算结果;还用于判断是否对每个所述乘累加运算结果执行移位操作, 并在判断结果为否的情况下,将所述乘累加运算结果直接输出至所述寄存器,在判断结果为 是的情况下,对所述乘累加运算结果执行移位之后再输出至所述寄存器;
10.所述寄存器用于暂时存储所述多个乘累加运算结果,并在最终卷积运算完成后将所述多 个乘累加结果输出至所述输出缓存模块。
11.可选的,所述乘累加运算单元在判断是否对每个所述乘累加运算结果执行移位操作的过 程中,用于执行以下步骤:
12.获取目标乘累加运算结果对应的非零权重值级数,所述目标乘累加运算结果为任一个所 述乘累加运算结果,所述非零权重值级数为所述非零权重值对应的行序;
13.获取目标乘累加运算结果对应的激活值级数,所述激活值级数为所述激活值对应的行序;
14.比较所述非零权重值级数与所述激活值级数;
15.若所述非零权重值级数与所述激活值级数一致,则获取所述判断结果为否;
16.若所述非零权重值级数与所述激活值级数不一致,则获取所述判断结果为是。
17.可选的,所述乘累加运算单元对所述乘累加运算结果执行移位之后再输出至所述寄存器 时,用于执行以下步骤:
18.根据所述非零权重值级数、所述激活值级数及所述第一固定位宽,获取移位数;
19.基于所述移位数,对所述目标乘累加运算结果执行左移之后,输出至所述寄存器中。
20.可选的,所述根据所述非零权重值级数、所述激活值级数及所述第一固定位宽,获取移 位数,包括:
21.根据以下公式,获取所述移位数:
22.s=(|a-b|
×
(w/2));
23.其中,s表示所述移位数,a表示所述非零权重值级数,b表示所述激活值级数,w表示 所述第一固定位宽。
24.可选的,所述压缩后的稀疏权重包括每个非零权重对应的值、通道差和位置差;
25.所述通道差用于表示非零权重的输入通道之间的索引差值;
26.所述位置差用于表示一个输入通道内非零权重的相对位置。
27.可选的,所述权重缓存模块对所述压缩后的稀疏权重进行解码时,用于执行以下步骤:
28.获取目标非零权重对应的值、通道差、位置差及压缩后地址,所述目标非零权重为任一 个所述非零权重;
29.获取所述目标非零权重的一维坐标值,所述目标非零权重的一维坐标值为所述目标非零 权重对应的位置差及第一非零权重对应的位置差的累加结果,所述第一非零权重包括压缩后 地址小于所述目标非零权重的所有非零权重;
30.根据所述一维坐标值及卷积核尺寸,获取所述目标非零权重的二维坐标值;
31.获取通道累加值,所述通道累加值为所述目标非零权重对应的通道差及第一非零权重对 应的通道差的累加结果;
32.根据所述二维坐标值及所述通道累加值,获取所述目标非零权重的三维坐标值;
33.获取所述目标非零权重位置信息,所述目标非零权重位置信息包括所述二维坐标值及三 维坐标值。
34.本技术第二方面公开了一种基于混层级精度运算的稀疏神经网络处理方法,应用
于如本 申请第一方面所述的基于混层级精度运算的稀疏神经网络处理器,所述方法包括:
35.权重缓存模块获取压缩后的稀疏权重,并将所述压缩后的稀疏权重进行分行存储,其中 每行存储的数据宽度为第一固定位宽;
36.激活值缓存模块分行存储神经网络的激活值,其中每行存储的数据宽度为所述第一固定 位宽;
37.在卷积运算过程中:
38.所述权重缓存模块对所述压缩后的稀疏权重进行解码,将解码得到的非零权重值按行顺 次输出至乘累加运算单元,以及将解码得到的非零权重位置信息按行顺次输出至激活索引模 块;
39.所述激活值缓存模块对所述激活值进行读取,按行顺次输出至所述激活索引模块;
40.所述激活值索引模块根据接收到的每行非零权重位置信息,对接收到的每行激活值进行 选取,并将选取得到的激活值按行顺次输出至所述乘累加运算单元;
41.所述乘累加运算单元对接收到的每行激活值及每行非零权重值进行两两乘累加运算,获 取多个乘累加运算结果;以及,判断是否对每个所述乘累加运算结果执行移位操作,并在判 断结果为否的情况下,将所述乘累加运算结果直接输出至寄存器,在判断结果为是的情况下, 对所述乘累加运算结果执行移位之后再输出至所述寄存器;
42.所述寄存器暂时存储所述多个乘累加运算结果,并在最终卷积运算完成后将所述多个乘 累加结果输出至输出缓存模块。
43.本技术第三方面公开了一种计算机设备,包括:
44.存储器,用于存储计算机程序;
45.处理器,用于执行所述计算机程序时实现如本技术第二方面所述的基于混层级精度运算 的稀疏神经网络处理方法的步骤。
46.本技术第四方面公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计 算机程序,所述计算机程序被处理执行时实现如本技术第二方面所述的基于混层级精度运算 的稀疏神经网络处理方法的步骤。
47.本技术提供的一种基于混层级精度运算的稀疏神经网络处理器,包括:权重缓存模块、 激活值缓存模块、激活值索引模块、乘累加运算模块及输出缓存模块,乘累加运算模块包括 乘累加运算单元及寄存器,乘累加运算单元的精度为预设的第一固定位宽。权重缓存模块中 存储有压缩后的稀疏权重,每次卷积计算时,权重缓存模块先进行解码,然后输出非零权重 值及非零权重位置信息,激活值索引模块根据非零权重位置信息输出相应的激活值,乘累加 单元采用固定精度运算模式,结合寄存器,实现对可变精度数据的处理。本技术提供的稀疏 神经网络处理器既能在高并行度下加载和操作非零权重数据,又能支持混层级精度计算。
附图说明
48.为了更清楚地说明本技术的技术方案,下面将对实施例中所需要使用的附图作简单地介 绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根 据这些附图获得其他的附图。
49.图1为本技术实施例公开的一种基于混层级精度运算的稀疏神经网络处理器的结构示意 图;
50.图2为本技术实施例公开的又一种基于混层级精度运算的稀疏神经网络处理器的结构示 意图;
51.图3为本技术实施例公开的稀疏权重压缩结果示意图;
52.图4为本技术实施例公开的非零权重三种坐标的示意图;
53.图5为本技术实施例公开的激活值索引模块选取激活值的示意图;
54.图6为本技术实施例公开的权重缓存模块及激活值缓存模块数据存储的示意图;
55.图7为本技术实施例公开的权重缓存模块及激活值缓存模块在第一固定位宽为4bit情况 下,针对8bit数据存储的示意图。
具体实施方式
56.为了解决神经网络处理器能够处理的模型精度单一,不支持混层级精度计算,且难以同 时实现只对非零权重进行计算的技术问题,本技术通过以下实施例公开了一种基于混层级精 度运算的稀疏神经网络处理器、方法。
57.参见图1及图2,本技术第一实施例公开的一种基于混层级精度运算的稀疏神经网络处 理器,包括:权重缓存模块、激活值缓存模块、激活值索引模块、乘累加运算模块及输出缓 存模块,所述乘累加运算模块包括乘累加运算单元及寄存器。所述乘累加运算单元的精度为 预设的第一固定位宽。
58.权重缓存模块用于获取压缩后的稀疏权重,并将所述压缩后的稀疏权重进行分行存储, 其中每行存储的数据宽度为所述第一固定位宽。
59.权重缓存模块还用于在卷积运算过程中对所述压缩后的稀疏权重进行解码,将解码得到 的非零权重值按行顺次输出至所述乘累加运算单元,以及将解码得到的非零权重位置信息按 行顺次输出至所述激活索引模块。
60.在一种实现方式中,本实施例提供的基于混层级精度运算的稀疏神经网络处理器中还包 括权重压缩模块,该模块用于预先对稀疏权重数据进行编码压缩,并将压缩后的稀疏权重输 出至权重缓存模块,压缩后的稀疏权重包括每个非零权重对应的值、通道差和位置差。
61.压缩结果通过“通道差”和“位置差”来记录非零权重的相对位置。其中,通道差用于 表示非零权重的输入通道之间的索引差值,如果通道差=1,表示该位置存储的是某个输入 通道中第一个非零权重,而通道差=0表示该位置存储的仍是同一输入通道中的非零权重。 位置差用于表示一个输入通道内非零权重的相对位置,通过累加位置差的值,可以得到非零 权重的一维坐标。并且,按照压缩前每个非零权重位于卷积核中的次序,压缩后得到的每个 非零权重都对应一个地址。作为示例,请参见图2,针对两通道卷积核的权重数据,编码得 到如右边表格所示的压缩结果。
62.需要说明的是,参见图4,非零权重包括三种坐标:一维坐标(x)、二维坐标(x,y) 及三维坐标(x,y,ch),其中,ch表示通道。其中,为了简化解码电路,“x”和“y”的起 始值均为0,“ch”的起始值为1。
63.在一种实现方式中,所述权重缓存模块对所述压缩后的稀疏权重进行解码时,用
于执行 以下步骤:
64.步骤11,获取目标非零权重对应的值、通道差、位置差及压缩后地址,所述目标非零权 重为任一个所述非零权重。
65.步骤12,获取所述目标非零权重的一维坐标值,所述目标非零权重的一维坐标值为所述 目标非零权重对应的位置差及第一非零权重对应的位置差的累加结果,所述第一非零权重包 括压缩后地址小于所述目标非零权重的所有非零权重。
66.步骤13,根据所述一维坐标值及卷积核尺寸,获取所述目标非零权重的二维坐标值。
67.实际操作中,常用的神经网络模型的卷积核尺寸(长*宽)在1*1至7*7之间,因而本实 施例支持的卷积核尺寸也为1*1至7*7。
68.假设一维坐标值为1d_loc,卷积核的宽为nkx,预设一个参数为j,j的取值范围为:0 ≤j《7(根据卷积核尺寸设定)。
69.在计算目标非零权重的二维坐标值时,将该一维坐标值1d_loc与(j*nkx)比较,当满 足j*nkx≤1d_loc《(j+1)*nkx时,通过以下公式进行计算:
70.x=1d_loc-j*nkx;
71.y=j;
72.通过上述公式的计算,便可得到目标非零权重的二维坐标值(x,y)。
73.步骤14,获取通道累加值,所述通道累加值为所述目标非零权重对应的通道差及第一非 零权重对应的通道差的累加结果。具体的,通道累加值即为ch的取值。
74.步骤15,根据所述二维坐标值及所述通道累加值,获取所述目标非零权重的三维坐标值 (x,y,ch)。
75.步骤16,获取所述目标非零权重位置信息,所述目标非零权重位置信息包括所述二维坐 标值(x,y)及三维坐标值(x,y,ch)。
76.以下结合图3的示例,详细阐述权重缓存模块如何对压缩后的稀疏权重进行解码。
77.以图3中加粗的非零权重“14”为例进行说明。该非零权重的值为“14”,地址为“1”, 位置差为“1”,通道差为“0”,卷积核尺寸nkx=3。
78.首先,累加位置差,得到该非零权重的一维坐标值1d_loc:1d_loc=2+1=3。
79.其次,当满足1*nkx≤3《(1+1)*nkx时,计算得到j=1,此时计算x和y的取值,x= 1d_loc-j*nkx=3-1*3=0,y=j=1,获得二维坐标值(x,y)=(0,1)。
80.接着,累加通道差,得到ch=1+0=1。
81.最终,确定三维坐标值(x,y,ch)=(0,1,1)。
82.激活值缓存模块用于分行存储神经网络的激活值,其中每行存储的数据宽度为所述第一 固定位宽。
83.激活值缓存模块还用于在卷积运算过程中对所述激活值进行读取,按行顺次输出至所述 激活索引模块。
84.激活值索引模块用于根据接收到的每行非零权重位置信息,对接收到的每行激活值进行 选取,并将选取得到的激活值按行顺次输出至所述乘累加运算单元。
85.接下来阐述如何根据非零权重位置信息选取对应的激活值。
86.参见图5中的(a),当解码得到某非零权重的二维坐标值后,该非零权重在执行卷
积运算 的过程中关联的激活值便相应地确定(图5中的(a)对应的斜纹阴影部分为该非零权重关联的 激活值)。
87.参见图5中的(b),将该非零权重关联的激活值读出后,便可以将非零权重的数值与激活 值进行计算。图中“mac”为乘累加运算单元。三维坐标值的第三个坐标“ch”可以使非零权 重进一步在输入通道维度上选取非零权重关联的激活值。
88.参见图5中的(c),假设该卷积核有4个通道,图中该三维坐标“3”表明该非零权重在 第三个通道,据此则可以选取第三个通道的激活值。
89.本实施例利用权重的稀疏性,将神经网络的激活值连续存储在激活值缓存模块中,在计 算过程中按照卷积运输模式对其进行顺序读取;稀疏权重在使用编码方式编码完成后存储在 权重缓存模块中(权重缓存模块同时存储了非零权重的值和位置信息),在计算过程中实时对 稀疏权重进行解码得到非零权重的数值和位置信息,根据解码得到的位置信息读取相应的激 活值,再将读取的激活值和解码得到的权重值共同输出至乘累加运算单元。
90.乘累加运算单元用于对接收到的每行激活值及每行非零权重值进行两两乘累加运算,获 取多个乘累加运算结果。
91.乘累加运算单元还用于判断是否对每个所述乘累加运算结果执行移位操作,并在判断结 果为否的情况下,将所述乘累加运算结果直接输出至所述寄存器,在判断结果为是的情况下, 对所述乘累加运算结果执行移位之后再输出至所述寄存器。
92.假设乘累加运算单元的固定比特位宽(即第一固定位宽)为w bit。当网络某层精度为w bit时,此层按照普通存储模式和计算模式进行计算;若网络某层精度为nw bit(n为正整 数,n》1),此时,处理器将激活值和压缩后的稀疏权重各拆分为n个w bit数据分行存储在 激活值缓存模块和权重缓存模块中。
93.如图6所示,激活值缓存模块和权重缓存模块中,每行只存储w bit的数据。在卷积计 算过程中,逐行读取这n个w bit数据,然后将每次读取得到的w bit激活数据和w bit权 重数据送入乘累加运算单元进行两两乘累加计算,然后通过移位操作的方式,将每次w bit 运算的结果暂存在寄存器中,最终得到nw bit运算的结果存入输出缓存中。
94.其中,移位操作仅在网络层级精度为nw bit(n》1)时触发。乘累加运算单元在将乘累 加运算结果输出至寄存器之前,会判断是否需要执行移位操作,具体通过以下步骤进行:
95.步骤21,获取目标乘累加运算结果对应的非零权重值级数,所述目标乘累加运算结果为 任一个所述乘累加运算结果,所述非零权重值级数为所述非零权重值对应的行序。
96.步骤22,获取目标乘累加运算结果对应的激活值级数,所述激活值级数为所述激活值对 应的行序。
97.在一种操作方式中,在将nw bit数据分行存储在缓存模块(包括权重缓存模块和激活值 缓存模块)中时,每行存w bit,将数据的最低w bit级数设定为1,将次低w bit级数定为 2,以此类推,则nw bit数据共有n级w bit数据。
98.步骤23,比较所述非零权重值级数与所述激活值级数。若所述非零权重值级数与所述激 活值级数一致,则执行步骤14;若所述非零权重值级数与所述激活值级数不一致,则执行步 骤15。
99.步骤24,获取所述判断结果为否,此时,将所述目标乘累加运算结果直接输出至所述寄 存器。
100.步骤25,获取所述判断结果为是,此时,对所述目标乘累加运算结果执行移位之后再输 出至所述寄存器。
101.进一步的,所述乘累加运算单元对目标乘累加运算结果执行移位之后再输出至所述寄存 器时,用于执行以下步骤:
102.根据所述非零权重值级数、所述激活值级数及所述第一固定位宽,获取移位数。
103.基于所述移位数,对所述目标乘累加运算结果执行左移之后,输出至所述寄存器中。
104.其中,根据所述非零权重值级数、所述激活值级数及所述第一固定位宽,获取移位数, 包括:
105.根据以下公式,获取所述移位数:
106.s=(|a-b|
×
(w/2))。
107.其中,s表示所述移位数,a表示所述非零权重值级数,b表示所述激活值级数,w表示 所述第一固定位宽。
108.实际操作中,假设某次乘累加运算时,a为非零权重值级数、b为激活值级数。当a=b, 则不需进行移位操作;当a≠b时,则将w bit非零权重与激活值相乘后,将结果左移(|a-b|
ꢀ×
(w/2))位,再将移位后的结果暂存在寄存器中,当经过n*n次运算、即权重和激活的全部 n个w bit计算完成后,寄存器的结果会输出到输出缓存中。
109.示例性的,第一固定位宽为4bit,即乘累加运算单元的计算精度为4bit,那么通过改变 计算模式,其可以支持3种层级精度的处理,分别为4bit、8bit和16bit。针对8bit和16bit 的数据,将其拆分为2个和3个4bit数据分行存储在缓存模块中,在计算过程中,通过将数 据从缓存中逐行读取的方式,达到使用一种4bit可以处理三种精度的目的。
110.例如对8bit数据,如图7所示,激活值和权重的低、高4bit数据分两行存储、分两次 读取,乘累加运算单元首先针对激活值和权重的低4bit数据进行乘法计算,然后输出至寄存 器中,接着将激活值和权重的高4bit和低4bit分别进行相乘并左移2位存入寄存器(与已 有乘积相加后再存入),最后针对激活值和权重的高4bit数据进行相乘并左移4位存入寄存 器(与已有乘积相加后再存入)。
111.所述寄存器用于暂时存储所述多个乘累加运算结果,并在最终卷积运算完成后将所述多 个乘累加结果输出至所述输出缓存模块。
112.本技术提供的一种基于混层级精度运算的稀疏神经网络处理器,包括:权重缓存模块、 激活值缓存模块、激活值索引模块、乘累加运算模块及输出缓存模块,乘累加运算模块包括 乘累加运算单元及寄存器,乘累加运算单元的精度为预设的第一固定位宽。权重缓存模块中 存储有压缩后的稀疏权重,每次卷积计算时,权重缓存模块先进行解码,然后输出非零权重 值及非零权重位置信息,激活值索引模块根据非零权重位置信息输出相应的激活值,乘累加 单元采用固定精度运算模式,结合寄存器,实现对可变精度数据的处理。本技术提供的稀疏 神经网络处理器既能在高并行度下加载和操作非零权重数据,又能支持混层级精度计算。
113.本技术提供的稀疏神经网络处理器包含一种硬件友好的稀疏权重编码解码方式,
通过跳 过随机分布的零权重的计算,充分利用网络的稀疏性,达到减少计算量、增加吞吐率的效果。
114.同时,此稀疏神经网络处理器支持通过改变存储模式和调用可变精度处理单元(寄存器) 来实现对多精度数据的处理,达到使用一种固定比特位宽运算单元可以处理多种层级精度的 目,极大提高了运算单元的利用效率。
115.本技术第二实施例公开了一种基于混层级精度运算的稀疏神经网络处理方法,应用于如 本技术第一实施例所述的基于混层级精度运算的稀疏神经网络处理器,所述方法包括:
116.权重缓存模块获取压缩后的稀疏权重,并将所述压缩后的稀疏权重进行分行存储,其中 每行存储的数据宽度为第一固定位宽。
117.激活值缓存模块分行存储神经网络的激活值,其中每行存储的数据宽度为所述第一固定 位宽。
118.假设第一固定位宽为w bit,若网络某层精度为w bit,此层按照普通存储模式和计算模 式进行计算;若网络某层精度为nw bit(n为正整数,n》1),此时,处理器将激活值和压缩 后的稀疏权重各拆分为n个w bit数据分行存储在激活值缓存模块和权重缓存模块中。
119.在卷积运算过程中:
120.所述权重缓存模块对所述压缩后的稀疏权重进行解码,将解码得到的非零权重值按行顺 次输出至乘累加运算单元,以及将解码得到的非零权重位置信息按行顺次输出至激活索引模 块。
121.所述激活值缓存模块对所述激活值进行读取,按行顺次输出至所述激活索引模块。
122.所述激活值索引模块根据接收到的每行非零权重位置信息,对接收到的每行激活值进行 选取,并将选取得到的激活值按行顺次输出至所述乘累加运算单元。
123.所述乘累加运算单元对接收到的每行激活值及每行非零权重值进行两两乘累加运算,获 取多个乘累加运算结果。以及,判断是否对每个所述乘累加运算结果执行移位操作,并在判 断结果为否的情况下,将所述乘累加运算结果直接输出至寄存器,在判断结果为是的情况下, 对所述乘累加运算结果执行移位之后再输出至所述寄存器。
124.所述寄存器暂时存储所述多个乘累加运算结果,并在最终卷积运算完成后将所述多个乘 累加结果输出至输出缓存模块。
125.本技术提供的一种基于混层级精度运算的稀疏神经网络处理方法,每次卷积计算时,权 重缓存模块先进行解码,然后输出非零权重值及非零权重位置信息,激活值索引模块根据非 零权重位置信息输出相应的激活值,乘累加单元采用固定精度运算模式,改变权重缓存模块 和激活值缓存模块的存储模式,结合寄存器,实现对可变精度数据的处理。本技术提供的稀 疏神经网络处理方法,既能在高并行度下加载和操作非零权重数据,又能支持混层级精度计 算。
126.本技术第三实施例公开了一种计算机设备,包括:
127.存储器,用于存储计算机程序。
128.处理器,用于执行所述计算机程序时实现如本技术第二实施例所述的基于混层级
精度运 算的稀疏神经网络处理方法的步骤。
129.本技术第四实施例公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有 计算机程序,所述计算机程序被处理执行时实现如本技术第二实施例所述的基于混层级精度 运算的稀疏神经网络处理方法的步骤。
130.以上结合具体实施方式和范例性实例对本技术进行了详细说明,不过这些说明并不能理 解为对本技术的限制。本领域技术人员理解,在不偏离本技术精神和范围的情况下,可以对 本技术技术方案及其实施方式进行多种等价替换、修饰或改进,这些均落入本技术的范围内。 本技术的保护范围以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1