互联硬件基础设施的资源控制的制作方法

文档序号:15739277发布日期:2018-10-23 22:01阅读:216来源:国知局
互联硬件基础设施的资源控制的制作方法

本申请要求2016年2月25日提交的美国临时专利申请62/299,953的权益,该临时专利申请通过引用整体并入本文。

技术领域

本公开一般涉及控制资源分配和/或释放,并且更具体地涉及控制互连硬件基础设施的资源的分配和/或释放的物理网络节点。



背景技术:

云计算的普遍采用导致应用程序的大范围部署。在这种云计算解决方案中,物理组件通常在租户之间共享。这种物理组件可以包括例如计算节点、处理器、存储节点、磁盘和网络结构。这些物理组件中的每一个都有助于租户可用的资源。这种资源可以包括例如处理、存储器和/或网络资源。可以应用虚拟化原理来动态地向云内的特定任务分配和/或释放资源。适用于这种虚拟化环境的定价模型通常计量各个租户的资源使用,从而使每个租户能够仅支付实际分配给他们的资源。

网络处理是以前已经通常应用云计算和虚拟化原理的域。为了支持这种网络处理,网络服务也可以封装在物理设备上并经由物理网络连接在一起。这些网络服务包括互连网络功能(NF),诸如防火墙、深度分组检测器和转码器等。



技术实现要素:

本公开的各种实施例包括计算机实现的方法、系统、装置和/或存储计算机程序产品的非暂态计算机可读介质。如下面将讨论的,这种实施例一般涉及控制一个或多个互连硬件基础设施资源的分配和/或释放的物理网络节点。例如,多个串联连接的服务节点可以使用互连硬件基础设施的一个或多个资源来支持分组流,并且物理网络节点可以基于关于该分组流确定的网络状况控制在将来时间到服务节点的资源的分配或者从服务节点的资源的释放。

在独立权利要求中提出了各方面。在从属权利要求中提出了其实施例。

更特别地,本公开的实施例包括由物理网络节点实现的方法,该物理网络节点控制互连硬件基础设施的资源的分配和/或释放。该方法包括确定当前时间在多个串联连接的服务节点中的第一服务节点处当前排队的请求的数量。多个串联连接的服务节点使用互连硬件基础设施的资源来支持分组流。该方法进一步包括确定进入第一服务节点的分组流的分组流速率。该方法进一步包括确定控制到多个串联连接的服务节点中的第二服务节点的互连硬件基础设施的资源的分配或释放的将来时间。将来时间的确定基于所确定的请求的数量和所确定的分组流速率。该方法进一步包括控制在将来时间到第二服务节点的资源的分配或释放。

其它实施例包括物理网络节点。物理网络节点包括接口电路和通信地耦合到接口电路的处理电路。接口电路被配置为与互连硬件基础设施交换信号。处理电路被配置为确定当前时间在多个串联连接的服务节点中的第一服务节点处当前排队的请求的数量。多个串联连接的服务节点使用互连硬件基础设施的资源来支持分组流。处理电路进一步被配置为确定进入第一服务节点的分组流的分组流速率,并确定控制到多个串联连接的服务节点中的第二服务节点的互连硬件基础设施的资源分配或释放的将来时间。处理电路被配置为基于所确定的请求的数量和所确定的分组流速率来确定将来时间。处理电路进一步被配置为经由接口电路控制在将来时间到第二服务节点的资源的分配或释放。

其它实施例包括存储用于控制可编程物理网络节点的计算机程序产品的非暂态计算机可读介质。该计算机程序产品包括软件指令,当由可编程物理网络节点执行时,该软件指令使可编程物理网络节点确定当前时间在多个串联连接的服务节点中的第一服务节点处当前排队的请求的数量。多个串联连接的服务节点使用互连硬件基础设施的资源来支持分组流。软件指令进一步使可编程物理网络节点确定进入第一服务节点的分组流的分组流速率,并确定控制到多个串联连接的服务节点中的第二服务节点的互连硬件基础设施的资源的分配或释放的将来时间。将来时间的确定基于所确定的请求的数量和所确定的分组流速率。软件指令进一步使可编程物理网络节点控制在将来时间到第二服务节点的资源的分配或释放。

附图说明

图1是根据本公开的一个或多个实施例的示例网络环境的框图。

图2是示出根据本公开的一个或多个实施例的从互连硬件基础设施的多个物理资源到支持分组流的服务节点的资源分配的框图。

图3A是示出根据本公开的一个或多个实施例的分配资源的示例的框图。

图3B是示出根据本公开的一个或多个实施例的释放资源的示例的框图。

图4是示出根据本公开的一个或多个实施例的在物理网络节点中实现的示例方法的流程图。

图5是示出根据本公开的一个或多个实施例的在物理网络节点中实现的更详细的示例方法的流程图。

图6是示出根据本公开的一个或多个实施例的物理网络节点的示例硬件的框图。

注意,如在此所使用的,当附图标记在附图中包括字母标记时,对所示元件的特定实例的讨论将使用适当的相应字母标记(例如,图2的物理组件220a)。然而,将省略字母标记以便一般地参考所示主题(例如,物理组件220的讨论(通常),而不是对特定物理组件220a、220b的讨论)。

具体实施方式

为了清楚理解下面的公开内容,在讨论联合的项目列表(例如,“A和B中的一个”)中的“……中的一个”的程度上,本公开指列表中项目中的一个(但不是两个)(例如,A或B,但不是A和B两者)。这种短语不是指列表项目中每一个项目的一个(例如,一个A和一个B),这种短语也不是指列表中的单个项目中的仅一个(例如,仅一个A,或者仅一个B)。类似地,在讨论联合项目列表中的“至少一个”(并且类似地对于这种列表中的“一个或多个”)的程度上,本公开指列表中的任何项目或列表中的项目的任何组合(例如,仅A、仅B,或A和B两者)。这种短语不是指列表中的项目中每个项目中的一个或多个(例如,A中的一个或多个,以及B中的一个或多个)。

根据在此的实施例,物理网络节点控制互连硬件基础设施的特定资源的分配或释放。出于本公开的目的,资源可以是物理组件(诸如处理器、磁盘和/或网络适配器)、物理组件的逻辑分区(诸如一定量的计算时间、存储容量和/或由一个或多个物理组件提供的可用带宽)、物理组件(例如,磁盘阵列)的逻辑分组和/或其逻辑分区(磁盘阵列上的5TB存储)。

图1中示出了这种物理网络节点110和互连硬件基础设施105可以在其中操作的示例网络环境100。网络环境100包括物理网络节点110、源网络节点120、目的网络节点125,以及互连硬件基础设施105。虽然该示例中的源、目的和物理网络节点中的每一个通信地连接到互连硬件基础设施105,但是根据各种实施例,节点110、120、125中的一个或多个包括在互连硬件基础设施105本身中。

物理网络节点110被配置为经由网络与互连硬件基础设施105交换信号。物理网络节点110的示例包括个人计算机、膝上型计算机、台式计算机、工作站、智能电话、平板计算机、可穿戴计算机、服务器、服务器集群、智能电器、网络附加存储器,以及存储区域网络。根据各种实施例,物理网络节点110执行管理服务(例如,运行虚拟化管理软件的虚拟机)以控制互连硬件基础设施105的资源的分配和/或释放。

互连硬件基础设施105能够与源网络节点120和目的网络节点125交换通信信号,并且包括经由网络互连的物理组件。互连硬件基础设施105的网络的示例包括(但不限于)以下中的一个或多个:因特网(或其一部分);一个或多个局域网;一个或多个无线网络;一个或多个蜂窝网络;一个或多个基于因特网协议的网络;一个或多个以太网网络;一个或多个光网络;和/或一个或多个电路交换网络。这种网络可以包括支持这种通信信号的交换的任何数量的网络设备,诸如路由器、网关、交换机、集线器、防火墙等(图1中未示出)。在一些实施例中,互连硬件基础设施105实现网络功能虚拟化基础设施(NFVI)。

图2示出互连硬件基础设施105的物理组件220a-f的资源230a-g,其中的一些被分配到服务节点210a-e。如下面将进一步讨论的,服务节点210a-e可以是使用由互连硬件基础设施105的一个或多个物理组件220a-f提供的一个或多个资源230a-g执行的虚拟功能。根据特定实施例,这些服务节点210a-e还可以使用由例如在互连硬件基础设施105之外的其它物理组件(未示出)提供的其它资源(未示出)来执行。

资源分配和释放在物理网络节点110的控制下。资源230a-g通常可以由服务节点210使用,以适当地在各个时间支持源网络节点120和目的节点125之间的一个或多个分组流。通常,根据特定实施例,可以为任何服务节点210a-e分配由互连硬件基础设施105提供的任何资源230a-g。此外,根据实施例,一旦分配给服务节点210a-e,任何这种资源230a-g可以随后被释放并且保持未分配、重新分配或分配到不同的服务节点210a-e。

物理组件220a-f可以例如是(或可以包括在如下以内)一个或多个个人计算机、膝上型计算机、台式计算机、工作站、智能电话、平板计算机、可穿戴计算机、服务器、服务器集群、大型计算机、智能电器、网络附加存储(NAS)单元、存储区域网络(SAN)、路由器、网关、交换机、集线器、防火墙、处理器、存储器、磁盘和/或网络适配器。根据实施例,任何物理组件220a-f可以包括任何数量的不同资源230。在图2的示例中,物理组件220a-c和220e-f每一个分别包括单个资源230a-c和230f-g。物理组件220d包括资源230d-e。

通常,可以分配或未分配资源230。在图2的示例中,资源230a和230c-g被分配到服务节点210a-e。服务节点210b从多于一个的物理组件220c-d分配资源230c-d。资源230b未被分配到任何服务节点210a-e。根据图2的示例,资源230b未分配。在其它实施例中,可以将资源230b分配到除服务节点210a-e之外的物理或逻辑节点。

服务节点210a-e支持源网络节点120和目的网络节点125之间的分组流。特别地,服务节点210a、210b、210c和210e串联连接并支持第一分组流(在图2中由白色箭头所示)。在该第一分组流内,分组从源网络节点120发送到目的网络节点125。类似地,串联连接的服务节点210a、210b、210d和210e支持从源网络节点120发送到目的网络节点125(在图2中由黑色箭头所示)的分组的第二分组流。

根据各种实施例,这些服务节点210a-e可以执行任何形式的网络处理。例如,服务节点210a-e中的一个或多个可以包括一个或多个服务应用程序、虚拟机、防火墙、深度分组检查器、转码器和/或IP多媒体系统(IMS)。由一个或多个服务节点210a-e执行的网络处理可以包括任何类型的流处理,例如,以处理在一个或多个相应流中包括的媒体流的至少一部分。例如,这种流处理可以包括视频、音频、传感器数据和/或控制信令的处理。在一些实施例中,服务节点210a-e中的一个或多个可以是虚拟联网功能(VNF)。服务节点210a-e中的每一个服务节点可以被实例化任何次数并且由物理网络节点110分配互连硬件基础设施105的资源230,例如,以便支持附加分组流。

图2仅是可以如何由物理网络节点110分配来自互连硬件基础设施105的物理组件220的资源230的一个示例。其它示例可以包括更少、不同或附加资源230、物理组件220、分配、服务节点210和/或分组流。

物理网络节点110对资源230a-g的分配和释放的控制可以响应于特定的网络状况。图3A示出在图2中示出的源网络节点120和目的网络节点125之间的第一分组流的一部分。更特别地,图3A示出响应于支持先前描述的第一分组流的服务节点210a处的网络状况来分配资源230b的示例。

如图3A中所示,源自源网络节点120(未示出)的上游分组320在时间T(0)流入服务节点210a,然后在时间T(1)流入服务节点210b,然后在时间T(2)流到服务节点210c上,然后继续作为下游分组330朝向目的网络节点125(未示出)。服务节点210a-c中的每一个服务节点分别包括请求队列310a-c,其中处理这些分组中的至少一些分组的请求被排队。每个请求队列310a-c的长度可以由分配到相应服务节点210a-c的资源230a、230c-d、230f限制。例如,资源230a可以仅提供有限量的存储,请求队列310a可以在其中存储请求。

在一些实施例中,特定请求队列310中的请求是分组本身,并且根据相应服务节点210支持的一个或多个服务(例如,纠错、QoS分类、防火墙服务、代码转换)处理所有分组。在其它实施例中,根据特定服务节点210提供的服务处理一些分组,而不处理其它分组。在这种示例中,可以从上游节点接收请求并识别要处理的分组。在其它实施例中,在识别哪些分组需要进一步处理之后,由接收分组的服务节点210生成请求(即,请求可以是服务节点210的内部分组跟踪机制)。

通常,随着分组流速率在特定服务节点210处增加或减少,该服务节点210处的队列长度趋于分别相应地增加或减少。服务节点210处的队列长度也可能由于其它原因而改变。例如,从服务节点210分配或释放某些资源230可以使服务节点210或多或少能够及时处理分组处理请求。除非采取一些纠正或缓解措施,否则增加的队列长度趋于增加整个分组流的延迟。相反,减少的队列长度趋于减少这种延迟。例如,随着请求队列310a的长度增加或减少,T(1)和T(2)二者的值通常分别趋于增加或减小。类似地,随着请求队列310b的长度增加或减少,T(2)的值也趋于分别增加或减小。

根据图3A中所示的示例,在时间T(0),物理网络节点110确定处理请求队列310a中的分组的请求的数量已超过阈值队列大小。在服务节点210a处处理的那些分组预期随后到达服务节点210b并影响请求队列310b。因此,响应于确定请求队列310a中的请求的数量已超过阈值队列大小,物理网络节点110将资源230b分配到服务节点210b。这种分配可以例如防止在服务节点210a处发生的拥塞传播到服务节点210b并且增加整个分组流延迟超过为分组流配置的最大延迟。

通常,互连硬件基础设施105的资源230的分配通常施加至少一些成本。例如,资源230b到服务节点210b的分配可以使资源230b对于到服务节点210a和210c的分配不可用。因此,在一些实施例中,物理网络节点110基于根据为分组流配置的上面讨论的最大延迟,支持分组流所需的互连硬件基础设施105的资源230的最小量,确定一个或多个请求队列310a-c的阈值队列大小。因此,物理网络节点110可以例如配置请求队列310a的阈值队列大小,使得物理网络节点110被触发以分配可能必要且可用的这种资源230以防止超过分组流的最大延迟(在该示例中,资源230b)。类似地,根据实施例,物理网络节点110可以配置请求队列310a的阈值队列大小,使得物理网络节点110被触发以释放可能被分配和不必要的资源230,以防止超过分组流的最大延迟。

特别地,资源230b可以由物理网络节点110选择,用于由于各种原因分配到服务节点210b。例如,可以将资源230b分配到服务节点210b,以将请求队列310b的存储容量增加特定量。又例如,可以将资源230b分配到服务节点210b,以提供服务节点210b可以用来更快地处理排队请求的附加处理能力。与一些其它资源230a、230c-g相反,例如,鉴于已经分配到服务节点210b的其它资源230c-d,资源230b的选择可以基于什么类型的资源将有效地防止拥塞传播到服务节点210b。

尽管资源230b到服务节点210b的分配通常用于响应于检测到服务节点210b和210c将很快受到附加分组业务的影响而减轻总体分组延迟,但是附加分组业务将多快地不能令人满意地影响例如请求队列310b可取决于各种因素。例如,已经在请求队列310b中的请求数量可能有助于总体延迟。因此,如果在时间T(0)有大量请求在请求队列310b中,则服务节点210b可能在此后不久需要资源230b。相反,如果请求队列310b中的请求的数量在时间T(0)处非常小,则服务节点210b可能不需要资源230b相对更长的时间段。因此,物理网络节点110在时间T(0)避免控制资源230b的分配,而是控制在将来时间的资源230b的分配。通过避免立即控制分配,物理网络节点110可以例如在需要将分组流延迟保持在配置的最大延迟之下之前避免占用资源230b。这种避免可以最大化资源230b的可用性和/或减轻与其相关联的某些操作成本。

在确定控制资源230b的分配的时间中,物理网络节点110可以另外地或可替代地认为物理组件220b(其对应于资源230b)和/或服务节点210b(将向其分配资源230b)可能不能在T(0)立即可用。在这种场景下,即使在时间T(0)期望分配资源230b(即,在物理网络节点110检测到请求队列310a处的请求的数量已超过其阈值队列大小时),物理组件220b和/或服务节点210b可能无法快速响应。例如,物理组件220b(对应于资源230b)可以是在时间T(0)断电或休眠的物理服务器。在这种示例中,物理网络节点110可能需要向物理组件220b发送上电请求和/或命令,并且在可以分配资源230b之前给该物理组件220b启动的时间。在另一示例中,资源230b可以被分配到一些其它服务节点210,并且可以在可以修改资源230b的分配之前需要时间来完成当前正在执行的任务。在又一示例中,服务节点210b可以是尚未启动、暂停或正在休眠并且可能需要时间来启动的虚拟机。实际上,物理组件220b和/或服务节点210b可能不立即可用的场景可能是无数的,并且物理网络节点110可以基于这种因素来全部或部分地确定控制分配的将来时间。

因此,在一些实施例中,物理网络节点110基于被确定当前要在服务节点210a处排队的请求的数量以及被确定正流入服务节点210a的分组流速率来确定控制资源230b的分配的将来时间。在一些实施例中,将来时间的确定另外地或可替代地基于由服务节点210a、210b和/或210c使用的资源230a和/或230c-d。在一些实施例中,将来时间的确定附加地或可替代地基于请求队列310a和/或310b的阈值队列大小。在确定用于资源230分配的将来时间中,可以另外或可替代地考虑其它因素组合,包括定时、延迟和/或资源分配。此外,这种因素可能与服务节点210a-e中的一个、一些或全部相关。

与图3A(其示出了控制资源230b到服务节点210b的分配的示例)相反,图3B示出控制资源230c从服务节点210b释放的示例。在该示例中,物理网络节点110确定当前在请求队列310a中排队(即,在时间T(0))的请求的数量,并且进一步确定进入服务节点210a的分组流的分组流速率。基于所确定的请求数量和所确定的分组流速率,物理网络节点110进一步确定控制资源230c的释放的将来时间。该将来时间可以是例如用于分配到其它服务节点210a、210c-e中的一个或多个的空闲资源230c,或者可以使相应的物理组件220c能够进入降低功率模式等。

在一些实施例中,物理网络节点110响应于确定请求310a处的请求数量低于阈值队列大小而控制资源230c的释放。如前面所讨论的,物理网络节点110可以基于根据为通过支持该分组流的服务节点210a-c、210e的分组流配置的最大延迟,支持分组流所需的资源230的最小量,确定和/或配置阈值队列大小。因此,在一些实施例中,物理网络节点110在将来时间(即,在时间T(0)之后)控制资源230c的释放,其中服务节点210b可用的减少资源将不会使通过服务节点210a-c、210e的分组的总体延迟超过上面讨论的最大延迟。在一些实施例中,该释放在先前分配之后,诸如在以上关于图3A的示例中所讨论的。在一些实施例中,物理网络节点110可以考虑类似的因素,以便响应于一个或多个服务节点210a-e处的网络状况,确定在将来时间(如果有的话)哪个分配或释放适当。

鉴于以上内容,图4示出由物理网络节点110实现的方法400。物理网络节点110控制互连硬件基础设施105的资源230a-g的分配和/或释放。方法400包括确定当前时间在多个串联连接的服务节点210a-c、210e的第一服务节点210a处当前排队的请求的数量(框410)。多个串联连接的服务节点210a-c、210e使用互连硬件基础设施105的资源230a、230c-d、230f-g来支持分组流。方法400进一步包括确定进入第一服务节点230a的分组流的分组流速率(框420)。方法400进一步包括确定控制互连硬件基础设施105的资源(分别为230b或230c)到多个串联连接的服务节点210a-c、210e的第二服务节点210b的分配或释放的将来时间(框430)。将来时间的确定基于所确定的请求的数量和所确定的分组流速率。方法400进一步包括在将来时间控制资源(分别为230b或230c)到第二服务节点210b的分配或释放(框440)。

图5示出由物理网络节点110实现的更加详细的方法500,其控制互连硬件基础设施105的资源230a-g的分配和/或释放。根据方法500,物理网络节点110确定使用互连硬件基础设施105的资源230a、230c-d、230f-g来支持分组流的多个串联连接的服务节点210a-c、210e的阈值队列大小(框510)。如上面所讨论,根据为通过多个串联连接的服务节点210a-c、210e的分组流配置的最大延迟,阈值队列大小可以基于支持分组流所需的互连硬件基础设施105的资源230的最小量。然后,物理网络节点110确定当前在第一服务节点210a处排队的请求的数量(框520),并确定进入该第一服务节点210b的分组流速率(框530)。然后,物理网络节点110确定请求的数量是否超过或低于为第一服务节点210a确定的阈值队列大小(框540)。

响应于请求的数量超过第一服务节点210a的阈值队列大小(框540,是),物理网络节点110确定将资源230b分配到第二服务节点210b的将来时间(框550)。将来时间的确定基于在第一服务节点210a处所确定的请求的数量和所确定的进入第一服务节点210a的分组流速率。然后,物理网络节点110等待直到将来时间为止(框560)并且在该将来时间将资源230b分配到第二服务节点210b(框570)。然后方法500结束(框580)。

响应于请求的数量低于第一服务节点210a的阈值队列大小(框540,否),物理网络节点110确定资源230c从第二服务节点210b释放的将来时间(框555)。将来时间的确定基于在第一服务节点210a处所确定的请求的数量和所确定的进入第一服务节点210a的分组流速率。然后,物理网络节点110等待直到将来时间为止(框565)并且在该将来时间从第二服务节点210b释放资源230c(框575)。然后方法500结束(框580)。

在上面的讨论中,各种示例涉及在服务节点210a的当前时间确定网络状况并且控制在服务节点210b的将来时间的资源(分别为230b、230c)的分配或释放。其它实施例可以涉及其它服务节点210和/或其它资源230。例如,其它实施例可以确定在服务节点210c的当前时间的网络状况并且控制在服务节点210a处在将来时间的资源(分别为230b、230a)的分配或释放。其它实施例可以确定服务节点210b处的网络状况并控制服务节点210a-c的资源分配或释放。其它实施例可以确定与第一流的服务节点210a-c、210e中的每一个服务节点以及第二流的服务节点210a-b、210d-e中的每一个服务节点相关的网络状况。这种实施例可以在相应的将来时间控制用于一个或多个服务节点210a-e的资源230a-g的分配或释放。

本公开的其它实施例包括图6中所示的物理网络节点110。在图6的示例中,物理网络节点110包括处理电路710、存储器电路720和接口电路730。处理电路710例如经由一个或多个总线通信地耦合到存储器电路720和接口电路730。处理电路710可以包括一个或多个微处理器、微控制器、硬件电路、分立逻辑电路、硬件寄存器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或其组合。例如,处理电路710可以是能够执行存储为存储器电路720中的机器可读计算机程序760的软件指令的可编程硬件。这种机器可读计算机程序760可以例如是虚拟机、服务应用程序、虚拟管理节点。各种实施例的存储器电路720可包括本领域中已知的或可开发的任何非暂态机器可读介质,无论是易失性还是非易失性,包括但不限于固态介质(例如,SRAM、DRAM、DDRAM、ROM、PROM、EPROM、闪存、固态硬盘等)、可移动存储设备(例如安全数字(SD)卡、miniSD卡、microSD卡、记忆棒、拇指驱动器、USB闪存盘、ROM盒式磁带、通用介质盘)、固定驱动器(例如,磁性硬盘驱动器)等,全部或以任何组合。

接口电路730可以是被配置为控制计算设备110的输入和输出(I/O)数据路径的控制器集线器。这种I/O数据路径可以包括用于与互连硬件基础设施105交换信号的数据路径和/或或用于与用户交换信号的数据路径。例如,接口电路730可以包括收发机,该收发机被配置为通过蜂窝网络、以太网或光网络中的一个或多个发送和接收通信信号。接口电路730还可以包括图形适配器、显示端口、视频总线、触摸屏、图形处理单元(GPU)、显示端口、液晶显示器(LCD)和/或发光二极管(LED)显示器中的一个或多个,用于向用户呈现视觉信息。接口电路730还可以包括指示设备(例如,鼠标、触控笔、触摸板、轨迹球、指向棒、操纵杆)、触摸屏、用于语音输入的麦克风、用于手势的光学识别的光学传感器和/或用于文本输入的键盘中的一个或多个。

接口电路730可以实现为单一物理组件,或者实现为连续或单独布置的多个物理组件,其中任何一个可以通信地耦合到任何其它物理组件,或者可以经由处理电路710与任何其它物理组件通信。例如,接口电路730可以包括输出电路740(例如,配置为在通信网络105上发送通信信号的发射机电路)和输入电路750(例如,配置为在通信网络105上接收通信信号的接收机电路)。类似地,输出电路740可以包括显示器,而输入电路750可以包括键盘。对于普通技术人员来说,上述的其它示例、置换和布置及其等同物将是显而易见的。

根据图6中所示的物理网络节点110的实施例,接口电路730被配置为与互连硬件基础设施105交换信号。处理电路710被配置为确定当前时间在多个串联连接的服务节点210a-c、210e中的第一服务节点210a处当前排队的请求的数量。多个串联连接的服务节点210a-c、210e使用互连硬件基础设施105的资源230a、230c-d、230f-g来支持分组流。处理电路710进一步被配置为确定进入第一服务节点210a中的分组流的分组流速率,并确定将互连硬件基础设施105的资源(分别为230b、230c)到多个串联连接的服务节点210a-c、210e中的第二服务节点210b的分配或释放的将来时间。处理电路710被配置为基于所确定的请求的数量和所确定的分组流速率来确定将来时间。处理电路710进一步被配置为经由接口电路730在将来时间控制资源(分别为230b、230c)到第二服务节点210b的分配或释放。

本公开的其它实施例包括存储用于控制可编程物理网络节点110的计算机程序产品760的非暂态计算机可读介质720,该计算机程序产品760包括软件指令,当在可编程物理网络节点110上执行时,该软件指令使可编程物理网络节点110确定当前时间在多个串联连接的服务节点210a-c、210e中的第一服务节点210a处当前排队的请求的数量。多个串联连接的服务节点210a-c、210e使用互连硬件基础设施105的资源230a、230c-d、230f-g来支持分组流。计算机程序产品760的软件指令进一步使物理网络节点110确定进入第一服务节点210a的分组流的分组流速率,并确定控制互连硬件基础设施105的资源(分别为230b、230c)到多个串联连接的服务节点210a-c、210e中的第二服务节点210b的分配或释放的将来时间。计算机程序产品760的软件指令使物理网络节点110基于所确定的请求的数量和所确定的分组流速率来确定将来时间。计算机程序产品760的软件指令进一步使物理网络节点110经由接口电路730在将来时间控制资源(分别为230b、230c)到第二服务节点210b的分配或释放。

当然,在不脱离本发明的基本特征的情况下,本发明可以以不同于在此具体阐述的方式的其它方式实施。本实施例在所有方面都被认为是说明性的而非限制性的,并且落入所附权利要求的含义和等同范围内的所有改变都旨在包含在其中。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1