一种刀片式服务器架构的制作方法
【技术领域】
[0001]本发明涉及计算机领域,更具体地说,涉及一种刀片式服务器架构。
【背景技术】
[0002]随着大数据和高速网络的发展,数据容量正在呈几何级别的速度增长,传统的以太网的传输带宽能力和传统计算机的体系架构,已经无法满足大数据、HPC等这种对大规模集中、高带宽数据应用的需求。
[0003]因此,如何提供一种服务器构架,以满足现有技术中大规模集中、高带宽数据应用的需求,是本领域技术人员需要解决的问题。
【发明内容】
[0004]本发明的目的在于提供一种刀片式服务器架构,以满足现有技术中大规模集中、高带宽数据应用的需求。
[0005]为实现上述目的,本发明实施例提供了如下技术方案:
[0006]—种刀片式服务器架构,包括:
[0007]N个计算模块,管理模块组,通信模块组;其中,N为正整数;
[0008]每个计算模块包括:互为冗余的运算子系统组;其中,每个运算子系统包括:与交换网络相连的通讯单元,与所述通讯单元相连的处理器,与所述处理器相连的集中控制单元,与所述集中控制单元相连的I2C管理总线切换器,与所述集中控制单元相连的网络传输单元;其中,所述通讯模块支持至少I OOGb的网络传输宽带;
[0009]所述管理模块组中的每个管理模块与每个运算子系统中的I2C管理总线切换器相连;所述通信模块组中的每个通信模块与每个运算子系统中的网络传输单元相连。
[0010]其中,每个运算子系统包括:
[0011]通过PCIe3.0x2链路与处理器相连的互为冗余的存储单元组,用于存储系统的临时数据。
[0012]其中,每个运算子系统中的处理器通过DMI链路与集中控制单元相连。
[0013]其中,每个运算子系统中的集中控制单元通过PCIe2.0x8链路与网络传输单元相连。
[0014]其中,每个运算子系统包括:
[0015]与集中控制单元和I2C管理总线切换器均相连的管理单元。
[0016]其中,所述管理单元为ASP2400系列芯片组。
[0017]其中,每个运算子系统中的处理器支持72个物理计算核心,6个内存扩展通道,提供384GB的内部数据存储空间,支持2个10Gb的高速扩展接口。
[0018]其中,通过每颗处理器支持的2个10Gb高速扩展接口,所有运算子系统中的处理器能组建成任意拓扑形态的计算互联传输网络。
[0019]其中,所述任意拓扑形态的计算互联传输网络,包括:
[0020]星型计算互联传输网络、环形计算互联传输网络、树型计算互联传输网络、簇星型计算互联传输网络或者网状计算互联传输网络。
[0021]其中,每个运算子系统包括:
[0022]通过BCM54610与管理单元相连的交换单元。
[0023]通过以上方案可知,本发明实施例提供的一种刀片式服务器架构,包括:N个计算模块,管理模块组,通信模块组;其中,N为正整数;每个计算模块包括:互为冗余的运算子系统组;其中,每个运算子系统包括:与交换网络相连的通讯单元,与所述通讯单元相连的处理器,与所述处理器相连的集中控制单元,与所述集中控制单元相连的I2C管理总线切换器,与所述集中控制单元相连的网络传输单元;其中,所述通讯模块支持至少10Gb的网络传输宽带;所述管理模块组中的每个管理模块与每个运算子系统中的I2C管理总线切换器相连;所述通信模块组中的每个通信模块与每个运算子系统中的网络传输单元相连,可见,在本实施例提供的服务器构架,满足了对大规模集中、高带宽数据应用的需求,同时通过通讯单元满足高性能计算领域对高宽带、低延时计算网络的需求。
【附图说明】
[0024]为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0025]图1为本发明实施例公开的一种刀片式服务器架构结构示意图;
[0026]图2为本发明实施例公开的一种异构型计算子系统原理框图;
[0027]图3为本发明实施例公开的一种异构计算单元模型示意图。
【具体实施方式】
[0028]下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0029]本发明实施例公开了一种刀片式服务器架构,以满足现有技术中大规模集中、高带宽数据应用的需求。
[0030]参见图1,本发明实施例提供的一种刀片式服务器架构,包括:
[0031]N个计算模块100,管理模块组200,通信模块组300;其中,N为正整数;
[0032]具体的,本实施例中的计算模块100的个数可以根据实际情况而设定,计算模块100的个数越多,其内置的处理器越多,运算能力就越强。参见图1,在本实施例中的计算模块100的个数设定为16个,即在12U的物理空间内,可以支持16个计算模块100,16个独立的计算模块100从物理形态上分为左右2组,每组各8个计算模块。
[0033]每个计算模块100包括:互为冗余的运算子系统组;其中,每个运算子系统包括:与交换网络相连的通讯单元110,与所述通讯单元110相连的处理器120,与所述处理器120相连的集中控制单元130,与所述集中控制单元130相连的I2C管理总线切换器140,与所述集中控制单130元相连的网络传输单元150;其中,所述通讯模块110支持至少I OOGb的网络传输宽带;
[0034]具体的,在本实施例中互为冗余的运算子系统设定为两个,即在每个计算模块中有两个互为冗余的运算子系统,每个运算子系统包括:通讯单元110、处理器120、集中控制单元130、I2C管理总线切换器140和网络传输单元150,并在在本实施例中,两个运算子系统中的通讯单元110和I2C管理总线切换器140可以共用,因此,在图1中只有一个通讯单元110和I2C管理总线切换器140。
[0035]其中,每个运算子系统中的处理器支持72个物理计算核心,6个内存扩展通道,提供384GB的内部数据存储空间,支持2个10Gb的高速扩展接口,并且通过每颗处理器支持的2个10Gb高速扩展接口,所有运算子系统中的处理器能组建成任意拓扑形态的计算互联传输网络。
[0036]其中,所述任意拓扑形态的计算互联传输网络,包括:
[0037]星型计算互联传输网络、环形计算互联传输网络、树型计算互联传输网络、簇星型计算互联传输网络或者网状计算互联传输网络。
[0038]具体的,本实施例中的有16个计算模块100,每个计算模块中有两个运算子系统,每个运算子系统中有一个处理器,因此,处理器的总数为36个。并且在本实施例中的每颗独立的处理器支持72个物理计算核心、6个内存扩展通道,可以提供384GB的内部数据存储空间,同时每颗处理器最大支持2*100Gb的高速扩展接口,通过每颗处理器支持的2*100Gb高速扩展接口,所有运算子系统中的处理器可以组建成任意拓扑形态的计算互联传输网络,可以是星型网络、环形网络、树型网、簇星型网或网状网等根据客户需求的任意形态,网络基于目前业界最领先的10Gb高速网络,可以满足高性能运算领域对高带宽、低延迟计算网络的需求。
[0039]所述管理模块组200中的每个管理模块与每个运算子系统中的I2C管理总线切换器140相连;所述通信模块组300中的每个通信模块与每个运算子系统中的网络传输单元150相连。
[0040]具体的,由于本实施例中的每个计算模块100中包括两个运算子系统,因此本实施例中的管理模块组200的个数为两个,即图1中的管理模块210和管理模块220,同理通讯模块组300的个数也为两个,S卩通信模块310和通信模块320。
[0041]参见图2,基于上述技术方案,本实施例提供一种异构型计算子系统原理框图,可见,在本实施例中,每个运算子系统不仅包括:通讯单元110,与所述通讯单元110相连的处理器120,与所述处理器120相连的集中控制单元130,与所述集中控制单元130相连的I2C管理总线切换器140,与所述集中控制单130元相连的网络传输单元150;
[0042]还包括:通过PCIe3.0x2链路与处理器120相连的互为