用于执行深度学习模型的方法、设备和存储介质与流程

文档序号:29790727发布日期:2022-04-23 17:34阅读:123来源:国知局
用于执行深度学习模型的方法、设备和存储介质与流程

1.本公开涉及计算机技术领域,尤其涉及人工智能、深度学习技术领域,具体涉及一种用于执行深度学习模型的方法、设备、电子设备和存储介质。


背景技术:

2.随着大数据时代的到来,深度学习已经是机器学习研究中一个新的领域,至今,已经具有多种深度学习框架,如深度神经网络、卷积神经网络、深度置信网络和循环生物网络。但深度学习模型在训练及执行的过程中高度依赖数据,即数据量越大,深度学习模型的上限越高,因此,深度学习模型在执行时的计算量大,针对如何提高深度学习模型执行效率,目前尚未有解决方案。


技术实现要素:

3.本公开提供了一种用于执行深度学习模型的方法、设备、电子设备和存储介质。
4.根据本公开的第一方面,提供了一种用于执行深度学习模型的方法,包括:通过目标设备的硬件接口获取多媒体数据,其中,目标设备上未运行操作系统;响应于模型执行模块的运行指令,利用深度学习模型对多媒体数据进行处理,得到处理结果。
5.根据本公开的第二方面,提供了一种用于执行深度学习模型的设备,设备上未运行操作系统,设备包括:硬件接口,用于获取多媒体数据;模型执行模块,用于利用深度学习模型对多媒体数据进行处理,得到处理结果。
6.根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面中用于深度学习模型的方法任一项的方法。
7.根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面中用于深度学习模型的方法任一项的方法。
8.根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现第一方面中用于深度学习模型的方法任一项所述的方法。
9.在本公开的实施例中,可以提高深度学习模型的执行效率。
10.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
11.附图用于更好地理解本方案,不构成对本公开的限定。其中:
12.图1是根据本公开第一实施例的一种用于执行深度学习模型的方法的流程图;
13.图2是根据本公开第二实施例的一种用于执行深度学习模型的方法的流程图;
14.图3是根据本公开第三实施例的一种用于执行深度学习模型的方法的流程图;
15.图4是根据本公开第四实施例的一种用于执行深度学习模型的方法的流程图;
16.图5是根据本公开实施例的一个优选实施例一种用于执行深度学习模型的方法的示意图;
17.图6是根据本公开实施例的一种用于执行深度学习模型的设备的结构示意图;
18.图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。
具体实施方式
19.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
20.图1是根据本公开第一实施例的一种用于执行深度学习模型的方法的流程图,如图1所示,该方法包括如下步骤:
21.步骤s101,通过目标设备的硬件接口获取多媒体数据,其中,目标设备上未运行操作系统。
22.具体地,目标设备可以是包括cpu(central process unit,中央处理器)和/或ai(artificial intelligence,人工智能)芯片等硬件计算芯片的电子设备。硬件接口可以是目标设备和存储有多媒体数据的存储设备之间的连接方式,包括物理端口和虚拟端口。多媒体数据可以是用于深度学习模型执行的数据,例如图片数据、音频数据、视频数据和文本数据等数据。
23.需要说明的是,在相关技术中,相关的设备通常安装了linux、windows、android和ios等操作系统,由于操作系统自身会占用系统资源,例如内存和cpu,同时操作系统的进程、线程调度策略,会影响深度学习模型的执行效率和执行速度。因此,本公开的目标设备在未运行操作系统的情况下执行深度学习模型,可以达到提高深度模型执行效率的技术效果。
24.步骤s102,响应于模型执行模块的运行指令,利用深度学习模型对多媒体数据进行处理,得到处理结果。
25.具体地,模型执行模块可以是封装的预先编写的用于深度学习执行装置运行的运行指令,因此,可以在未运行操作系统的电子设备上运行。深度学习模型可以包括但不限于图像识别模型、目标检测模型、语音识别模型和图像分割模型。在本公开中,在硬件接口获取到多媒体数据后,响应于模型执行模块的运行指令,深度学习模块开始执行,并对多媒体数据进行相应的处理。例如,在多媒体数据为音频数据,深度学习模型为语音识别模型的情况下,对多媒体数据进行语音识别处理。
26.在本公开上述实施例中,通过未运行操作系统的目标设备的硬件接口获取多媒体数据,响应于模型执行模块的运行指令,利用深度学习模型对多媒体数据进行处理,得到处理结果。容易注意到的是,本公开响应于模型执行模块中的运行指令执行深度学习模型,无需运行操作系统,因此,在深度模型的执行过程中,并不存在由于操作系统的运行过程中产生的进程、线程调度策略,影响深度学习模型执行效率,同时也可以调用更多的系统资源,
进而达到了提高深度学习模型执行效率和速度的技术效果,解决了相关技术中难以提高深度模型执行效率的技术问题。
27.图2是根据本公开第二实施例的一种用于执行深度学习模型的方法的流程图,如图2所示,该方法包括如下步骤:
28.步骤s201,通过目标设备的硬件接口获取多媒体数据,其中,目标设备上未运行操作系统。
29.步骤s201的实现方式与上述第一实施例中步骤s101相同,在此不做赘述。
30.步骤s202,将多媒体数据和深度学习模型的模型参数传输至目标设备的处理器。
31.具体地,深度学习模型的模型参数包括但不限于参数和超参数,其中,参数可以是深度学习模型在执行过程中所生成的变量,例如特征向量,超参数可以是工作人员设置的参数或通过另一个模型所得到的参数。当目标设备通电,处理器进行初始化后,读取存储设备中的模型参数和多媒体数据。
32.步骤s203,利用处理器按照深度学习模型的网络结构,将多媒体数据和模型参数进行运算,得到处理结果。
33.具体地,深度学习模型的网络结构包括但不限于全连接(fully connected,简称fc)网络结构、卷积神经网络(convolutional neural network,cnn)和循环神经网络(recurrent neural network,rnn)。在本公开的处理器中预先基于网络结构定义了需要进行的运算,因此,需要确定深度学习模型的网络结构以后,利用深度处理模型对多媒体数据进行处理,得到相应的处理结果。
34.在上述第二实施例中,通过将多媒体数据和深度学习模型传输至目标设备的处理器后,利用处理器按照深度学习模型的网络结构,对多媒体数据和模型参数进行运算,无需运行操作系统,因此,在深度模型的执行过程中,并不存在由于操作系统的运行过程中产生的进程、线程调度策略,影响深度学习模型执行效率,同时也可以调用更多的系统资源,进而达到了提高深度学习模型执行效率和速度的技术效果,解决了相关技术中难以提高深度模型执行效率的技术问题。
35.图3是根据本公开第三实施例的一种用于执行深度学习模型的方法的流程图,如图3所示,该方法包括如下步骤:
36.步骤s301,通过目标设备的硬件接口获取多媒体数据,其中,目标设备上未运行操作系统。
37.步骤s301至的实现方式与上述第一实施例中步骤s101相同,在此不做赘述。
38.步骤s302,响应于模型加载模块的运行指令,将深度学习模型的模型资源和多媒体数据加载至目标设备的内存,其中,深度学习模型的模型资源包括:深度学习模型网络结构和模型参数。
39.具体地,模型加载模型可以是封装的预先编写的用于深度学习模型加载的运行指令,用于从目标设备中的存储设备查找模型资源和相应的多媒体数据并加载到内存。其中,目标设备的存储设备包括但不限于本地的存储设备,目标设备可以访问的远程存储设备。
40.步骤s303,将多媒体数据和深度学习模型的模型参数传输至目标设备的处理器。
41.步骤s304,将多媒体数据和深度学习模型的模型参数传输至目标设备的处理器。
42.步骤s305,利用处理器按照深度学习模型的网络结构,将多媒体数据和模型参数
进行运算,得到处理结果。
43.步骤s303与上述第一实施例中步骤s102相同,步骤s304至步骤s305与上述第二实施例中步骤s202至步骤s203的实现方式相同,在此不做赘述。
44.在上述第三实施例中,通过未运行操作系统的目标设备的硬件接口获取多媒体数据;再将模型资源和相应的多媒体数据从存储设备加载到内存中;然后,响应于模型执行模块的运行指令,利用深度学习模型对多媒体数据进行处理,得到处理结果,或将多媒体数据和深度学习模型传输至目标设备的处理器后,利用处理器按照深度学习模型的网络结构,对多媒体数据和模型参数进行运算,无需运行操作系统,因此,在深度模型的执行过程中,并不存在由于操作系统的运行过程中产生的进程、线程调度策略,影响深度学习模型执行效率,同时也可以调用更多的系统资源,进而达到了提高深度学习模型执行效率和速度的技术效果,解决了相关技术中难以提高深度模型执行效率的技术问题。
45.图4是根据本公开第四实施例的一种用于执行深度学习模型的方法的流程图,如图4所示,该方法包括如下步骤:
46.步骤s401,通过目标设备的硬件接口获取多媒体数据,其中,目标设备上未运行操作系统。
47.步骤s402,响应于模型加载模块的运行指令,将深度学习模型的模型资源和多媒体数据加载至目标设备的内存,其中,深度学习模型的模型资源包括:深度学习模型网络结构和模型参数。
48.步骤s403,将多媒体数据和深度学习模型的模型参数传输至目标设备的处理器。
49.步骤s404,将多媒体数据和深度学习模型的模型参数传输至目标设备的处理器。
50.步骤s405,利用处理器按照深度学习模型的网络结构,将多媒体数据和模型参数进行运算,得到处理结果。
51.步骤s401至步骤s405的实现方式与上述第一实施例中步骤s301至步骤s305相同,在此不做赘述。
52.步骤s406,确定深度学习模型的模型体积。
53.具体地,由于目标设备的内存有限,因此,需要确定模型体积后再进行相应的处理。
54.步骤s407,响应于模型体积小于预设阈值,将模型资源加载至内存。
55.具体地,预设阈值可以根据目标设备的内存设置,在模型体积较小的情况下,可以直接将模型资源加载至目标设备的内存中。
56.步骤s408,响应于模型体积大于预设阈值,将模型资源划分为多个子资源,并依次将多个子资源加载至内存。
57.具体地,在模型资源大于预设阈值的情况下,将模型资源划分为多个独立的子资源,先加载符合预设阈值的子资源至内存中,在已经加载至内存中的子资源被模型执行模块使用完后,再加载符合阈值阈值的子资源至内存中,直至子资加载完毕。
58.在上述第四实施例中,根据深度学习模型的模型体积的大小调整相关资源的加载方式,进而达到了提高深度学习模型执行效率和速度的技术效果。
59.可选地,该方法还包括:响应于目标设备的上电指令,调用初始加载模块;响应于初始加载模型的运行指令,将模型执行模块和模型加载模块加载至目标设备的内存。
60.具体地,上电指令可以表征目标设备刚刚通电,在目标设备通电后,初始加载模块将会按照预设顺序查找存储设备,并获得特定内存地址的数据,即深度学习模型相关资源和多媒体数据在存储设备中的地址、进行模型加载的起始指令的地址,在将深度学习模型相关资源和多媒体数据加载至内存中后,跳转至进行模型加载的起始指令的地址,开始执行深度学习模型。
61.在上述可选实施例中,响应于标设备的上电指令,调用初始加载模块;响应于初始加载模型的运行指令,将模型执行模块和模型加载模块加载至目标设备的内存。无需运行操作系统,因此,在深度模型的执行过程中,并不存在由于操作系统的运行过程中产生的进程、线程调度策略,影响深度学习模型执行效率,同时也可以调用更多的系统资源,进而达到了提高深度学习模型执行效率和速度的技术效果。
62.可选地,该方法还包括:响应于装置加载模块的运行指令,将初始加载模块、模型执行模块、模型加载模块、多媒体数据和深度学习模型的模型资源存储至存储设备。
63.具体地,装置加载模块可以是预先封装的,用于将初始加载模块、模型执行模块、模型加载模块、多媒体数据和深度学习模型的模型资源写录至存储设备中的运行指令。需要说明的是,装置加载模块所进行的操作需要在目标设备通电执行初始加载模块之前完成。
64.在上述可选实施例中,预先将所需的数据写入存储设备,进而达到了提高深度学习模型的执行效率的技术效果。
65.在一个优选实施例中,如图5所示,第一步:使用“装置烧录模块”,将“模型相关资源”、“初始加载模块”、“模型加载模块”、“模型执行模块”都写入到设备的存储设备(例如:硬盘、软盘、闪存、光盘等);第二步:设备通电启动,“初始加载模块”即从存储设备中被加载到内存中;第三步:“初始加载模块”执行,加载“模型加载模块”、“模型执行模块”;第四步:“模型执行模块”执行,加载、解释、执行“模型相关资源”;第五步:输出模型执行结果,传递到设备外部或保存到存储设备。
66.根据本公开实施例,还提供了一种用于执行深度学习模型的装置的实施例,本实施例中具体的实施方式与可选的实施例与上述实施例中相似或者相同,在此不做赘述。
67.图6是根据本公开实施例的一种用于执行深度学习模型的设备的结构示意图,如图6所示,该设备包括:
68.硬件接口60,用于获取多媒体数据;
69.模型执行模块62,用于利用所述深度学习模型对所述多媒体数据进行处理,得到处理结果。
70.在本公开上述实施例中,通过未运行操作系统的目标设备的硬件接口获取多媒体数据,响应于模型执行模块的运行指令,利用深度学习模型对多媒体数据进行处理,得到处理结果。容易注意到的是,本公开响应于模型执行模块中的运行指令执行深度学习模型,无需运行操作系统,因此,在深度模型的执行过程中,并不存在由于操作系统的运行过程中产生的进程、线程调度策略,影响深度学习模型执行效率,同时也可以调用更多的系统资源,进而达到了提高深度学习模型执行效率和速度的技术效果,解决了相关技术中难以提高深度模型执行效率的技术问题。
71.可选地,模型执行模块还用于:将多媒体数据和深度学习模型的模型参数传输至
处理器;利用处理器按照深度学习模型的网络结构,将多媒体数据和模型参数进行运算,得到处理结果。
72.可选地,该设备还包括:模型加载模块,用于将深度学习模型的模型资源和多媒体数据加载至内存,其中,深度学习模型的模型资源包括:深度学习模型网络结构和模型参数。
73.可选地,模型加载模块还用于:确定深度学习模型的模型体积;响应于模型体积小于预设阈值,将模型资源加载至内存;
74.响应于模型体积大于预设阈值,将模型资源划分为多个子资源,并依次将多个子资源加载至内存。
75.可选地,该设备还包括:初始加载模块,用于在设备上电时,将模型执行模块和模型加载模块加载至内存。
76.可选地,还包括:装置烧录模块,用于将初始加载模块、模型加载模块、模型执行模块、多媒体数据和深度学习模型的模型资源存储至存储设备。
77.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
78.图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
79.如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(rom)702中的计算机程序或者从存储单元708加载到随机访问存储器(ram)703中的计算机程序,来执行各种适当的动作和处理。在ram 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
80.设备700中的多个部件连接至i/o接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
81.计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如用于执行深度学习模型的方法。例如,在一些实施例中,用于执行深度学习模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由rom 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到ram 703并由计算单元701执行时,可以执行上文描述的用于执行深度学习模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元
701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于执行深度学习模型的方法。
82.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
83.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
84.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
85.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
86.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
87.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的
服务器,或者是结合了区块链的服务器。
88.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
89.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1