1.本公开涉及计算机技术领域中的数据处理和云计算领域,尤其涉及一种请求的调度方法、装置、电子设备和存储介质。
背景技术:2.目前解决分布式交互式分析引擎层针对并发查询因内存耗尽而产生阻塞的问题主要依靠资源隔离技术实现。
3.但是资源隔离技术往往会引入更底层的依赖,增加了复杂度,提升了成本,产品化较难。
技术实现要素:4.本公开提供了一种请求的调度方法、装置、电子设备和存储介质。
5.根据第一方面,提供了一种请求的调度方法,包括:确定待执行请求需要的计算节点和所述计算节点上需要的内存,根据所述计算节点上需要的内存和所述计算节点上通用内存池的剩余内存,确定所述待执行请求是为目标请求或非目标请求,所述目标请求为需调度至所述计算节点上预留内存池的所述待执行请求,将所述目标请求分配至所述计算节点上的所述预留内存池,并将所述非目标请求分配至所述计算节点上的所述通用内存池。
6.根据第二方面,提供了一种请求的调度装置,包括:第一确定模块,用于确定待执行请求需要的计算节点和所述计算节点上需要的内存;第二确定模块,用于根据所述计算节点上需要的内存和所述计算节点上通用内存池的剩余内存,确定所述待执行请求为目标请求或非目标请求,所述目标请求为需调度至所述计算节点上预留内存池的所述待执行请求;分配模块,用于将所述目标请求分配至所述计算节点上的所述预留内存池,并将所述非目标请求分配至所述计算节点上的所述通用内存池。
7.根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开第一方面所述的请求的调度方法。
8.根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据本公开第一方面所述的请求的调度方法。
9.根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开第一方面所述的请求的调度方法的步骤。
10.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
11.附图用于更好地理解本方案,不构成对本公开的限定。其中:
12.图1是根据本公开第一实施例的请求的调度方法的流程示意图;
13.图2是根据本公开第二实施例的请求的调度方法的流程示意图;
14.图3是根据本公开第三实施例的请求的调度方法的流程示意图;
15.图4是请求的调度方法的使用场景示意图;
16.图5是根据本公开第四实施例的请求的调度方法的流程示意图;
17.图6是根据本公开第一实施例的请求的调度装置的框图;
18.图7是根据本公开第二实施例的请求的调度装置的框图;
19.图8是用来实现本公开实施例的请求的调度方法的电子设备的框图。
具体实施方式
20.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
21.计算机技术(computer technology,简称ct)是指计算机领域中所运用的技术方法和技术手段,或指其硬件技术、软件技术及应用技术。计算机技术具有明显的综合特性,它与电子工程、应用物理、机械工程、现代通信技术和数学等紧密结合,发展很快。
22.数据处理(data processing,简称dp)是对数据的采集、存储、检索、加工、变换和传输。数据处理的基本目的是从大量的、可能是杂乱无章的、难以理解的数据中抽取并推导出对于某些特定的人们来说是有价值、有意义的数据。数据处理是系统工程和自动控制的基本环节。数据处理贯穿于社会生产和社会生活的各个领域。数据处理技术的发展及其应用的广度和深度,极大地影响了人类社会发展的进程。
23.云计算(cloud computing,简称cc)是分布式计算的一种,指的是通过网络“云”将巨大的数据计算处理程序分解成无数个小程序,然后,通过多部服务器组成的系统进行处理和分析这些小程序得到结果并返回给用户。云计算早期,简单地说,就是简单的分布式计算,解决任务分发,并进行计算结果的合并。因而,云计算又称为网格计算。通过这项技术,可以在很短的时间内(几秒钟)完成对数以万计的数据的处理,从而达到强大的网络服务。
24.下面结合附图描述本公开实施例的请求的调度方法、装置、电子设备和存储介质。
25.图1是根据本公开第一实施例的请求的调度方法的流程示意图。
26.如图1所示,本公开实施例的请求的调度方法具体可包括以下步骤:
27.s101,确定待执行请求需要的计算节点和计算节点上需要的内存。
28.具体的,本公开实施例的请求的调度方法的执行主体可为本公开实施例提供的请求的调度装置,该调度装置可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选的,执行主体可包括工作站、服务器,计算机、用户终端及其他设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。
29.需要说明的是,交互式分析引擎通常应用于动态统计报表生成、即席查询(ad hoc,简称ah)、商业智能系统(business intelligence,简称bi)和数据可视化等场景。这些应用场景具有对查询速度敏感、并发度高即由多个业务部门和大量数据分析师共享、对查询出错容忍度高、资源需求变化大即负载波动明显以及负载多在工作时间等特点。
30.其中,交互式分析引擎的查询性能是用户最为关心的指标之一,它直接决定了用户体验。在高并发查询下,内存耗尽会直接导致各查询无法获取所需资源从而产生阻塞问题,如果内存调度设计不合理,则可能进一步导致查询死锁。相关技术中,对于分布式分析引擎层针对并发查询因内存耗尽而产生阻塞的问题,主要依靠资源隔离技术实现,但是资源隔离技术往往会引入更底层的依赖,常见的如yarn(yet another resource negotiator,另一种资源协调者)。例如,交互式分析产品hive llap((live long and process,长时间和长进程)中,需要利用yarn实现资源隔离,每个llap daemon(程序)运行于yarn container(容器)中,并通过yarn resourcemanager(资源管理器)组件申请资源,确保并发查询时的资源可以合理调度,但是底层依赖的引入增加了技术栈的复杂度和运维成本,资源隔离也带来了额外开销,此外部署拓扑的复杂度也随之增加,不利于产品化。
31.基于此,本公开实施例提供了一种请求的调度方法,通过比较计算节点上需要的内存和通用内存池的剩余内存,将目标请求和非目标请求分别分配至预留内存池和通用内存池,降低了技术复杂度和成本,有利于产品化。
32.其中,在企业云数据平台产品中,如果使用全托管方案部署交互式分析引擎,查询并发量必然会非常高,使用本公开实施例的调度方法可以有效地降低并发查询因内存不足导致的阻塞,提升用户的产品体验,而如果使用serverless(无服务)的方案部署交互式分析引擎,那么一个主账号下的子账号也将共用一个serverless集群,这样依然会存在并发场景,使用本公开实施例的调度方法同样可以避免查询阻塞问题。
33.本公开实施例中,确定待执行请求需要的计算节点和计算节点上需要的内存,该待执行请求可以为待执行的查询请求等请求,例如查询请求主要指的是用户提交的sql(structured query language,结构化查询语言)语句,还包括身份信息等参数,其中后者为辅助信息。待执行请求具体可以包括当前时刻接收到的新的请求,也可以包括之前时刻接收到的但暂停内存分配的请求。待执行请求申请的计算节点和对应的每个计算节点需要的内存具体是由调度装置根据集群内存配置、用户sql以及目标数据确定的,本公开实施例中的内存即待执行请求所需要的内存空间,以查询请求为例,有专门用于查询功能的内存,还有用于其他功能的内存,这里指的是查询内存,其中查询内存在物理内存上看,逻辑上可分为可用内存和不可用内存两种资源池,在分布式交互式分析引擎中,将每个计算节点可用的查询内存划分为通用内存池和预留内存池,其中通用内存池作为查询请求提交的默认内存池,所有用户的并发查询即同一时刻接收到的所有用户的查询请求均可以从通用内存池中申请内存资源,本公开对此不作过多限定。
34.s102,根据计算节点上需要的内存和计算节点上通用内存池的剩余内存,确定待执行请求为目标请求或非目标请求,目标请求为需调度至计算节点上预留内存池的待执行请求。
35.具体的,对步骤s101确定的计算节点上需要的内存和该计算节点上通用内存池的剩余内存进行比较,判断是否需要调度至计算节点上的预留内存池,从而确定待执行请求为目标请求或非目标请求,即将需调度至计算节点上预留内存池的待执行请求确定为目标请求,将无需调度至计算节点上预留内存池的待执行请求确定为非目标请求。
36.s103,将目标请求分配至计算节点上的预留内存池,并将非目标请求分配至计算节点上的通用内存池。。
37.具体的,请求调度装置在统计内存使用时,将步骤s102确定的需调度至计算节点上预留内存池的待执行请求即目标请求分配至计算节点上的预留内存池中执行相应的查询等操作,并将非目标请求分配至计算节点上的通用内存池中执行相应的查询等操作。
38.综上,本公开实施例的请求的调度方法,确定待执行请求需要的计算节点和计算节点上需要的内存,根据计算节点上需要的内存和计算节点上通用内存池的剩余内存,确定待执行请求为目标请求或非目标请求,目标请求为需调度至计算节点上预留内存池的待执行请求,将目标请求分配至计算节点上的预留内存池,并将非目标请求分配至计算节点上的所述通用内存池。本公开的调度方法,通过比较计算节点上需要的内存和通用内存池的剩余内存,将目标请求和非目标请求分别分配至预留内存池和通用内存池,无需底层依赖,通过合理的调度即可解决并发查询因内存耗尽而产生阻塞的问题,降低了技术复杂度和成本,有利于产品化。
39.图2是根据本公开第二实施例的请求的调度方法的流程示意图。
40.如图2所示,在图1所示实施例的基础上,本公开实施例的请求的调度方法具体可包括以下步骤:
41.s201,确定待执行请求需要的计算节点和计算节点上需要的内存。
42.具体的,本实施例中的步骤s201与上述实施例中的步骤s101相同,此处不再赘述。
43.上述实施例中的步骤s102“根据计算节点上需要的内存和计算节点上通用内存池的剩余内存,确定待执行请求为目标请求或非目标请求,目标请求为需调度至计算节点上预留内存池的待执行请求”具体可包括以下步骤s202和s203。
44.s202,全部待执行请求在计算节点上需要的总内存等于或者小于计算节点上通用内存池的剩余内存,则将待执行请求确定为非目标请求。
45.具体的,对步骤s201获取的全部待执行请求在同一计算节点上需要的内存进行判断,如果其等于或者小于该计算节点上通用内存池的剩余内存,即通用内存池的剩余内存足够满足全部待执行请求的内存需要,则不需要使用预留内存池,则将全部的待执行请求确定为非目标请求。
46.s203,全部待执行请求在计算节点上需要的总内存大于计算节点上通用内存池的剩余内存,则将需要的内存最大的待执行请求确定为目标请求,且非目标请求在计算节点上需要的内存等于或者小于计算节点上通用内存池的剩余内存。
47.具体的,对步骤s201获取的全部待执行请求在同一计算节点上需要的内存进行判断,如果其大于该计算节点上通用内存池的剩余内存,则将其中需要内存最大的至少一个待执行请求确定为目标请求,将剩余的待执行请求确定为非目标请求,且非目标请求在该计算节点上需要的内存等于或者小于计算节点上通用内存池的剩余内存,即计算节点上通用内存池的剩余内存不能满足全部待执行请求的内存需要,那么选择其中在计算节点上消耗最大内存的至少一个请求使用该计算节点上的预留内存池,同时通用内存池的剩余内存满足其他请求的内存需要。
48.上述实施例中的步骤s103中的“将目标请求分配至计算节点上的预留内存池”具体可包括以下步骤s204和s206。
49.s204,响应于计算节点上的预留内存池未被占用,则将目标请求分配至计算节点上的预留内存池。
50.具体的,若预留内存池未被占用即还没有请求进入预留内存池获得分配的内存,则将目标请求分配至计算节点上的预留内存池。
51.s205,响应于计算节点上的预留内存池被占用,则停止对目标请求进行分配,并将目标请求确定为待执行请求。
52.具体的,若预留内存池被占用即已经有请求进入预留内存池获得分配的内存,则停止对目标请求进行分配,并将目标请求确定为待执行请求,即同一时刻只有一个请求可以进入计算节点的预留内存池,此时将不再响应新的进入预留内存池的请求,防止了死锁现象的发生。
53.s206,将非目标请求分配至计算节点上的通用内存池。
54.具体的,本实施例中的步骤s206的具体过程可参见上述实施例中步骤s103中的相关描述,此处不再赘述。
55.进一步的,如图3所示,上述任一实施例中的步骤“将目标请求分配至计算节点上的预留内存池”具体可包括以下步骤:
56.s301,响应于目标请求的数量为一个,则将目标请求分配至计算节点上的预留内存池。
57.具体的,若目标请求的数量为一个,则将目标请求分配至计算节点上的预留内存池,即当只有一个目标请求时,允许其直接进入预留内存池获得分配内存。
58.s302,响应于目标请求的数量为多个,则将优先级最高的一个目标请求分配至计算节点上的预留内存池,并将剩余的目标请求确定为待执行请求。
59.具体的,若目标请求的数量为多个,则将其中优先级最高的一个目标请求分配至计算节点上的所述预留内存池,并将剩余的目标请求确定为待执行请求,即同一时刻只有一个请求可以进入计算节点的预留内存池,此时将不再响应新的进入预留内存池的请求,防止了死锁现象的发生。
60.综上,本公开实施例的请求的调度方法,确定待执行请求需要的计算节点和计算节点上需要的内存,将全部待执行请求需要的总内存和计算节点上通用内存池的剩余内存进行比较,根据比较结果进行相应的确定待执行请求为目标请求或者非目标请求的处理,根据计算节点上的预留内存池被占用情况,进行相应的将目标请求分配至预留内存池或者停止分配至预留内存池且将目标请求确定为待执行请求的处理,根据目标请求的数量,将目标请求分配至预留内存池中或者将优先度最高的目标请求分配至预留内存池中且将剩余的目标请求确定为待执行请求。本公开的调度方法,通过比较计算节点上需要的内存和通用内存池的剩余内存,将目标请求和非目标请求分别分配至预留内存池和通用内存池,无需底层依赖,通过合理的调度即可解决并发查询因内存耗尽而产生阻塞的问题,降低了技术复杂度和成本,有利于产品化。同时,根据计算节点上的预留内存池的被占用情况和目标请求的数量进行相应的处理,保证了同一时刻只有一个请求进入预留内存池,防止了死锁现象的发生,进一步避免了并发查询因内存耗尽而产生阻塞的问题。
61.为清楚说明本公开实施例的请求的调度方法,下面结合图4对本公开实施例的请求的调度方法的使用场景进行举例描述。
62.如图4所示,假设存在用户1、用户2、用户3、用户4,其中用户1、用户2、用户3先提交查询请求,并且占满各计算节点的通用内存池,需要注意的是,用户2的查询请求没有分配
给计算节点3,此时,调度节点即调度装置发现用户3的查询请求在各计算节点消耗的内存最大,则将用户3的查询请求分配至各计算节点的预留内存池。此时,用户4提交查询请求,调度节点根据内存调度规则,拒绝用户4提交的查询请求,避免阻塞已提交的查询请求,而用户3提交的查询请求,由于使用了预留内存池的资源,在预留内存池内存分配合理的情况下,可以大大降低用户1、用户2、用户3并发提交的查询请求被阻塞的情况。
63.下面结合图5对本公开实施例的请求的调度方法的整体流程进行详细描述。如图5所示,本公开实施例的请求的调度方法具体包括:
64.s501,确定待执行请求需要的计算节点和计算节点上需要的内存。
65.s502,全部待执行请求在计算节点上需要的总内存等于或者小于计算节点上通用内存池的剩余内存,则将待执行请求确定为非目标请求。
66.s503,全部待执行请求在计算节点上需要的总内存大于计算节点上通用内存池的剩余内存,则将需要的内存最大的待执行请求确定为目标请求,且非目标请求在计算节点上需要的内存等于或者小于计算节点上通用内存池的剩余内存。
67.对于目标请求,执行步骤s504-s508。对于非目标请求,执行步骤s509。
68.s504,判断计算节点上的预留内存池是否被占用。若否,则执行步骤s505。若是,则执行步骤s508。
69.s505,判断目标请求的数量是否为一个。若是,则执行步骤s506。若否,则执行步骤s507。
70.s506,将目标请求分配至计算节点上的预留内存池。
71.s507,将优先级最高的一个目标请求分配至计算节点上的预留内存池,并将剩余的目标请求确定为待执行请求。
72.s508,停止对目标请求进行分配,并将目标请求确定为待执行请求。
73.s509,将非目标请求分配至计算节点上的通用内存池。
74.图6是根据本公开第一实施例的请求的调度装置的框图。
75.如图6所示,本公开实施例的请求的调度装置600,包括:第一确定模块601、第二确定模块602和分配模块603。
76.第一确定模块601,用于确定待执行请求需要的计算节点和计算节点上需要的内存。
77.第二确定模块602,用于根据计算节点上需要的内存和计算节点上通用内存池的剩余内存,确定待执行请求为目标请求或非目标请求,目标请求为需调度至计算节点上预留内存池的待执行请求。
78.分配模块603,用于将目标请求分配至计算节点上的预留内存池,并将非目标请求分配至计算节点上的通用内存池。
79.需要说明的是,上述对请求的调度方法实施例的解释说明,也适用于本公开实施例的请求的调度装置,具体过程此处不再赘述。
80.综上,本公开实施例的请求的调度装置,确定待执行请求需要的计算节点和计算节点上需要的内存,根据计算节点上需要的内存和计算节点上通用内存池的剩余内存,确定待执行请求为目标请求或非目标请求,目标请求为需调度至计算节点上预留内存池的待执行请求,将目标请求分配至计算节点上的预留内存池,并将非目标请求分配至计算节点
上的所述通用内存池。本公开的请求的调度装置,通过比较计算节点上需要的内存和通用内存池的剩余内存,将目标请求和非目标请求分别分配至预留内存池和通用内存池,无需底层依赖,通过合理的调度即可解决并发查询因内存耗尽而产生阻塞的问题,降低了技术复杂度和成本,有利于产品化。
81.图7是根据本公开第二实施例的请求的调度装置的框图。
82.如图7所示,本公开实施例的请求的调度装置700,包括:第一确定模块701、第二确定模块702和分配模块703。
83.其中,第一确定模块701与上一实施例中的第一确定模块601具有相同的结构和功能,第二确定模块702与上一实施例中的第二确定模块602具有相同的结构和功能,分配模块703与上一实施例中的分配模块603具有相同的结构和功能。
84.进一步的,分配模块703具体可包括:第一分配单元7031,用于响应于计算节点上的预留内存池未被占用,则将目标请求分配至计算节点上的预留内存池。
85.进一步的,本公开实施例的请求的调度装置700具体还可包括:第三确定模块,用于响应于计算节点上的预留内存池被占用,则停止对目标请求进行分配,并将目标请求确定为待执行请求。
86.进一步的,分配模块703具体可包括:第二分配单元,用于响应于目标请求的数量为一个,则将目标请求分配至计算节点上的预留内存池。
87.进一步的,本公开实施例的请求的调度装置700具体还可包括:第四确定模块,用于响应于目标请求的数量为多个,则将优先级最高的一个目标请求分配至计算节点上的预留内存池,并将剩余的目标请求确定为待执行请求。
88.进一步的,第二确定模块702具体可包括:第一确定单元,用于全部待执行请求在计算节点上需要的总内存等于或者小于计算节点上通用内存池的剩余内存,则将待执行请求确定为非目标请求;第二确定单元,用于全部待执行请求在计算节点上需要的总内存大于计算节点上通用内存池的剩余内存,则将需要的内存最大的待执行请求确定为目标请求,且非目标请求在计算节点上需要的内存等于或者小于计算节点上通用内存池的剩余内存。
89.需要说明的是,上述对请求的调度方法实施例的解释说明,也适用于本公开实施例的请求的调度装置,具体过程此处不再赘述。
90.综上,本公开实施例的请求的调度装置,确定待执行请求需要的计算节点和计算节点上需要的内存,将全部待执行请求需要的总内存和计算节点上通用内存池的剩余内存进行比较,根据比较结果进行相应的确定待执行请求为目标请求或者非目标请求的处理,根据计算节点上的预留内存池被占用情况,进行相应的将目标请求分配至预留内存池或者停止分配至预留内存池且将目标请求确定为待执行请求的处理,根据目标请求的数量,将目标请求分配至预留内存池中或者将优先度最高的目标请求分配至预留内存池中且将剩余的目标请求确定为待执行请求。本公开的请求的调度装置通过比较计算节点上需要的内存和通用内存池的剩余内存,将目标请求和非目标请求分别分配至预留内存池和通用内存池,无需底层依赖,通过合理的调度即可解决并发查询因内存耗尽而产生阻塞的问题,降低了技术复杂度和成本,有利于产品化。同时,根据计算节点上的预留内存池的被占用情况和目标请求的数量进行相应的处理,保证了同一时刻只有一个请求进入预留内存池,防止了
死锁现象的发生,进一步避免了并发查询因内存耗尽而产生阻塞的问题。
91.本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
92.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
93.图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
94.如图8所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(rom)802中的计算机程序或者从存储单元808加载到随机访问存储器(ram)803中的计算机程序,来执行各种适当的动作和处理。在ram 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、rom 802以及ram 803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。
95.电子设备800中的多个部件连接至i/o接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
96.计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如图1至图5所示的请求的调度方法。例如,在一些实施例中,请求的调度方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由rom 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到ram 803并由计算单元801执行时,可以执行上文描述的请求的调度方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行请求的调度方法。
97.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
98.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来
编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程请求的调度装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
99.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
100.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
101.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)、互联网以及区块链网络。
102.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务("virtual private server",或简称"vps")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
103.根据本公开的实施例,本公开还提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现根据本公开上述实施例所示的请求的调度方法的步骤。
104.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
105.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开
的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。