计算系统的制作方法

文档序号:16540469发布日期:2019-01-08 20:19阅读:227来源:国知局
计算系统的制作方法

本公开涉及一种计算系统。



背景技术:

随着科学技术的快速发展,图形处理器gpu作为一种实现图形运算的微处理器,被越来越多地集成到各种服务器中,提供相应的运算和处理。

然而,服务器内置gpu一般通过交换机互联的方式形成机架服务器群向外提供服务,在这种配置下,如果外部设备需要利用服务器群的gpu来进行相应的运算和处理时,则需要经过交换机实现数据交互,并且置于不同服务器内的两个gpu之间需要进行资源互访时,也需要经过交换机实现数据交互。

可以理解,随着系统对gpu的需求的增加,交换机互联所带来的费用也会不断增加,并且通过交换机的数据交互,也存在较大的访问延迟问题。



技术实现要素:

本公开的一个方面提供了一种计算系统,包括:多个图形处理系统,所述多个图形处理系统分属不同的服务器,至少一个网卡,所述至少一个网卡中的每个网卡能够与至少一个所述图形处理系统相连,其中,每个所述网卡能够支持至少一个高速串行计算机扩展总线pcie数据通路,其中,连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路实现直连。

可选地,上述计算系统包括多个网卡,连接到不同网卡上的多个图形处理系统之间能够通过远程直接数据存取rdma实现数据交互。

可选地,上述多个网卡中的每个网卡能够支持远程直接数据存取rdma扩展。

可选地,上述计算系统包括多个网卡,连接到不同网卡上的多个图形处理系统之间能够通过交换机实现数据交互。

可选地,上述连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路实现直连,包括:所述连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路实现端对端的访问。

可选地,上述网卡包括动态随机存取寄存器dram,所述动态随机存取寄存器dram能够用于缓存至少一个图形处理系统的数据。

可选地,上述所述高速串行计算机扩展总线pcie数据通路采用高速差分信号,以端对端的方式处理通信。

可选地,上述网卡上集成有多通路技术,所述多通路技术能够使连接到所述网卡上的节点通过所述网卡与外界互联。

可选地,上述连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路实现直连,包括:连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路,采用图形处理器直连gpudirect技术实现端对端的访问。

可选地,上述连接到相同网卡上的多个图形处理系统之间能够通过所述高速串行计算机扩展总线pcie数据通路实现数据交互的过程不需要中央处理器的参与。

附图说明

为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:

图1a和1b示意性示出了根据本公开实施例的计算系统的应用场景;

图2示意性示出了根据本公开的实施例的计算系统的示意图;

图3示意性示出了根据本公开的另一实施例的计算系统的示意图;以及

图4a和4b示意性示出了根据本公开的再一实施例的计算系统的示意图。

具体实施方式

以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。

在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。

在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。

在使用类似于“a、b和c等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有a、b和c中至少一个的系统”应包括但不限于单独具有a、单独具有b、单独具有c、具有a和b、具有a和c、具有b和c、和/或具有a、b、c的系统等)。在使用类似于“a、b或c等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有a、b或c中至少一个的系统”应包括但不限于单独具有a、单独具有b、单独具有c、具有a和b、具有a和c、具有b和c、和/或具有a、b、c的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“a或b”应当被理解为包括“a”或“b”、或“a和b”的可能性。

附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。

因此,本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本公开的上下文中,计算机可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读介质的具体示例包括:磁存储装置,如磁带或硬盘(hdd);光存储装置,如光盘(cd-rom);存储器,如随机存取存储器(ram)或闪存;和/或有线/无线通信链路。

本公开的实施例提供了一种计算系统,包括多个图形处理系统和至少一个网卡,所述多个图形处理系统分属不同的服务器,所述至少一个网卡中的每个网卡能够与至少一个图形处理系统相连,其中,每个网卡能够支持至少一个pcie数据通路,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连。

图1a和图1b示意性示出了根据本公开实施例的计算系统的应用场景。

如图1a和1b所示,该应用场景包括多个图形处理系统,例如,图形处理系统101、102、103、104、105、106、107和108。其中,图形处理系统101、102、103、104、105、106、107和108可以分属不同的服务器。

可以理解,gpu作为一种实现图形运算的微处理器,被越来越多地集成到各种服务器中,在对图形进行相应的运算和处理时,往往需要多个服务器中的图形处理系统协同工作。例如,图形处理系统101、102、103、104、105、106、107和108分别处理图形运算的一部分,且图形处理系统101、102、103、104、105、106、107和108之间需要进行数据交互。

如图1a所示,在现有技术中,分属不同服务器的图形处理系统之间的数据交互需要通过交换机实现。例如,图形处理系统101、102、103、104与交换机111相连,则图形处理系统101、102、103、104之间的数据交互可以通过交换机111实现。图形处理系统105、106、107、108与交换机112相连,则图形处理系统105、106、107、108之间的数据交互可以通过交换机112实现。连接在不同交换机上的图形处理系统101与105之间的数据交互则需要通过交换机111、113和112实现。

然而,随着系统对图形处理系统的需求的增加,交换机互联所带来的费用也会不断增加,并且通过交换机的数据交互,也存在较大的访问延迟问题。

有鉴于此,本公开实施例提供了一种高效的计算系统,如图1b所示。该计算系统包括多个图形处理系统,例如图形处理系统101、102、103、104、105、106、107和108,以及至少一个网卡,例如网卡121、122,该网卡能够支持至少一个pcie数据通路。在本公开实施例中,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连。

例如,图形处理系统101、102、103、104与网卡121相连,则图形处理系统101、102、103、104之间能够通过pcie数据通路实现直连。图形处理系统105、106、107、108与网卡122相连,则图形处理系统105、106、107、108之间能够通过pcie数据通路实现直连。连接在不同网卡上的图形处理系统101与105之间可以通过远程直接数据存取rdma实现数据交互,也可以通过交换机实现数据交互。

本公开实施例的多个图形处理系统之间可以通过pcie数据通路实现端对端的直连,从而可以有效降低数据交互的延迟问题,提高数据交互效率。

应该理解,图1a和1b中的图形处理系统、交换机和网卡的数目仅仅是示意性的。根据实现需要,可以具有任意数目的图形处理系统、交换机和网卡。

需要注意的是,图1a和1b所示仅为可以应用本公开实施例的场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。

图2示意性示出了根据本公开的实施例的计算系统200的示意图。

如图2所示,该计算系统200包括多个图形处理系统210和至少一个网卡220,网卡220能够与至少一个图形处理器系统210相连。

根据本公开实施例,多个图形处理系统210可以分属不同的服务器。网卡220能够支持至少一个pcie数据通路,连接到相同网卡220上的多个图形处理系统210之间能够通过pcie数据通路实现直连。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现端对端的访问。

根据本公开实施例,网卡220中可以集成有多个pcie数据通路。可以理解,pcie数据通路采用高速差分信号,以端对端的方式处理通信,在一条pcie链路的两端可以各连接一个设备,这两个设备互为数据发送端和数据接收端,从而使得连接在网卡上的多个图像处理系统210之间可以通过pcie数据通路实现端对端的访问,减少了交换机带来的数据访问延迟问题。

在本公开实施例中,计算系统200包括多个网卡220,连接到不同网卡上的多个图形处理系统210之间能够通过远程直接数据存取rdma230实现数据交互。

根据本公开实施例,网卡220能够支持远程直接数据存取rdma扩展,从而连接到不同网卡上的图形处理系统可以通过rdma230实现数据传送。

在本公开实施例中,网卡220可以包括动态随机存取寄存器dram,动态随机存取寄存器dram能够用于缓存至少一个图形处理系统的数据。

根据本公开实施例,网卡220可以支持板载dram,不同的gpu之间的访问或者数据交互可以利用板载dram作为共享数据的缓存,大大降低访问延迟。

根据本公开实施例,网卡220还可以集成有多通路技术,该多通路技术能够使连接到网卡上的节点通过网卡200与外界互联。

在本公开实施例中,网卡220可以集成有multihostsocket技术,从而网卡中的pcie数据通路可以利用multihostsocket技术将连接到网卡上的多个图形处理系统进行互联。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,可以包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路,采用gpudirect技术实现端对端的访问。

可以理解,连接到相同网卡上的多个图形处理器之间能够通过pcie数据通路实现直连,因此,可以采用gpudirect技术直接发起端对端的访问,不需要经过pcieswitch进行gpu的扩展。

在本公开实施例中,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现数据交互的过程不需要中央处理器的参与。

例如,连接到相同网卡上的图形处理系统1和图形处理系统2之间能够通过pcie数据通路实现直连,采用gpudirect技术可以直接发起图形处理系统1的存储器到图形处理系统2的存储器的访问,从而在不需要中央处理器cpu的参与下实现图形处理系统1和图形处理系统2之间的数据交互,加快了数据传输的进程。

根据本公开实施例,上述网卡220例如可以是ocp3.0nicmezzanine网卡。

本公开实施例的网卡能够支持pcie数据通路,使得连接到网卡上的多个图形处理系统之间可以通过pcie数据通路实现端对端的直连,从而可以有效降低数据交互的延迟问题,提高数据交互效率。

本公开实施例的网卡还可以支持远程直接数据存取rdma扩展,使得连接到不同网卡上的多个图形处理系统之间能够通过rdma实现数据交互,提高了交互效率。

图3示意性示出了根据本公开的另一实施例的计算系统300的示意图。

如图3所示,该计算系统300包括多个图形处理系统310和至少一个网卡320,网卡320能够与至少一个图形处理器系统310相连。

根据本公开实施例,多个图形处理系统310可以分属不同的服务器。网卡320能够支持至少一个pcie数据通路,连接到相同网卡320上的多个图形处理系统310之间能够通过pcie数据通路实现直连。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,可以包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现端对端的访问。

根据本公开实施例,网卡320中可以集成有多个pcie数据通路。可以理解,pcie数据通路采用高速差分信号,以端对端的方式处理通信,在一条pcie链路的两端可以各连接一个设备,这两个设备互为数据发送端和数据接收端,从而使得连接在网卡上的多个图像处理系统310之间可以通过pcie数据通路实现端对端的访问,减少了交换机带来的数据访问延迟问题。

在本公开实施例中,计算系统300还可以包括交换机330,在计算系统300包括多个网卡320的情况下,连接到不同网卡上的多个图形处理系统之间能够通过交换机330实现数据交互。

在本公开实施例中,网卡320可以包括动态随机存取寄存器dram,动态随机存取寄存器dram能够用于缓存至少一个图形处理系统的数据。

根据本公开实施例,网卡320可以支持板载dram,不同的gpu之间的访问或者数据交互可以利用板载dram作为共享数据的缓存,大大降低访问延迟。

根据本公开实施例,网卡320还可以集成有多通路技术,该多通路技术能够使连接到网卡上的节点通过网卡与外界互联。

在本公开实施例中,网卡320可以集成有multihostsocket技术,从而网卡中的pcie数据通路可以利用multihostsocket技术将连接到网卡上的多个图形处理系统进行互联。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,可以包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路,采用gpudirect技术实现端对端的访问。

可以理解,连接到相同网卡上的多个图形处理器之间能够通过pcie数据通路实现直连,因此,可以采用gpudirect技术直接发起端对端的访问,不需要经过pcieswitch进行gpu的扩展。

在本公开实施例中,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现数据交互的过程不需要中央处理器的参与。

例如,连接到相同网卡上的图形处理系统1和图形处理系统2之间能够通过pcie数据通路实现直连,采用gpudirect技术可以直接发起图形处理系统1的存储器到图形处理系统2的存储器的访问,从而在不需要中央处理器cpu的参与下实现图形处理系统1和图形处理系统2之间的数据交互,加快了数据传输的进程。

根据本公开实施例,上述网卡320例如可以是ocp3.0nicmezzanine网卡。

本公开实施例的网卡能够支持pcie数据通路,使得连接到网卡上的多个图形处理系统之间可以通过pcie数据通路实现端对端的直连,从而可以有效降低数据交互的延迟问题,提高数据交互效率。

图4a和4b示意性示出了根据本公开的再一实施例的计算系统的示意图。

如图4a所示,计算系统400包括多个图形处理系统410和网卡420,多个图形处理系统410可以与网卡420连接。

根据本公开实施例,图形处理系统410可以包括图形处理器gpu411、存储单元412以及pcie接口413,网卡420可以包括网卡接口421,图形处理器系统410可以通过pcie接口413与网卡接口421连接,其中,pcie接口413与网卡接口421可以通过pcie总线连接。

在本公开实施例中,网卡接口421可以支持pcie×32信号,能够与4个图形处理系统相连。

可以理解,pcie总线的物理链路的一个数据通路(1ane)中,由两组差分信号,共4根信号线组成。其中发送端的tx部件与接收端的rx部件使用一组差分信号连接,该链路也被成为发送端的发送链路,也是接收端的接收链路;而发送端的rx部件与接收端的tx部件使用另一组差分信号连接,该链路也被称为发送端的接收链路,也是接收端的发送链路。一个pcie链路可以由多个数据通路lane组成。

例如,可以参考图4b,图形处理系统的pcie接口413的rx和tx可以分别与网卡接口421的rx和tx部件相连。例如,gpu0的tx端可以发送数据到网卡的相应tx端,然后经过网卡中集成的pcie数据通路,通过网卡的相应的rx端将数据发送到gpu1的rx端。

如图3所示,该计算系统300包括多个图形处理系统310和至少一个网卡320,网卡320能够与至少一个图形处理器系统310相连。

根据本公开实施例,多个图形处理系统310可以分属不同的服务器。网卡320能够支持至少一个pcie数据通路,连接到相同网卡320上的多个图形处理系统310之间能够通过pcie数据通路实现直连。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,可以包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现端对端的访问。

根据本公开实施例,pcie数据通路采用高速差分信号,以端对端的方式处理通信,在一条pcie链路的两端可以各连接一个设备,这两个设备互为数据发送端和数据接收端,从而使得连接在网卡上的多个图像处理系统410之间可以通过pcie数据通路实现端对端的访问,减少了交换机带来的数据访问延迟问题。

在本公开实施例中,网卡420可以包括动态随机存取寄存器dram,动态随机存取寄存器dram能够用于缓存至少一个图形处理系统的数据。

根据本公开实施例,网卡420可以支持板载dram,不同的gpu之间的访问或者数据交互可以利用板载dram作为共享数据的缓存,大大降低访问延迟。

根据本公开实施例,网卡420还可以集成有多通路技术,该多通路技术能够使连接到网卡上的节点通过网卡与外界互联。

在本公开实施例中,网卡420可以集成有multihostsocket技术,从而网卡中的pcie数据通路可以利用multihostsocket技术将连接到网卡上的多个gpu进行互联。

根据本公开实施例,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现直连,可以包括:连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路,采用gpudirect技术实现端对端的访问。

可以理解,连接到相同网卡上的多个图形处理器之间能够通过pcie数据通路实现直连,因此,可以采用gpudirect技术直接发起端对端的访问,不需要经过pcieswitch进行gpu的扩展。

在本公开实施例中,连接到相同网卡上的多个图形处理系统之间能够通过pcie数据通路实现数据交互的过程不需要中央处理器的参与。

例如,存储单元412中可以存储有该图像处理系统410的相应数据,在不同的图像处理系统410之间需要进行数据交互时,连接到相同网卡上的图像处理系统1和图形处理系统2之间能够通过pcie数据通路实现直连,采用gpudirect技术可以直接发起图像处理系统1的存储单元412到图形处理系统2的存储单元412的访问,从而在不需要中央处理器cpu的参与下实现图形处理系统1和图形处理系统2之间的数据交互,加快了数据传输的进程。

根据本公开实施例,上述网卡420例如可以是ocp3.0nicmezzanine网卡。

根据本公开实施例,网卡420还可以包括风扇以及电源提供单元等。

本公开实施例的网卡能够支持pcie数据通路,使得连接到网卡上的多个图形处理系统之间可以通过pcie数据通路实现端对端的直连,从而可以有效降低数据交互的延迟问题,提高数据交互效率。

本公开实施例中的附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。

尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1