一种支持Intel GPU的AI服务器架构系统技术方案

技术编号:22568604 阅读:37 留言:0更新日期:2019-11-16 13:36
本发明专利技术提供了一种支持Intel GPU的AI服务器架构系统,属于AI服务器设计的技术领域。其技术方案为:包括U双层机箱,机箱包括机箱底座、机箱上盖以及设置在机箱底座和机箱上盖之间的中部隔板,中部隔板将机箱内部分为上层以及下层,上层为U机箱,U机箱安装计算节点,下层为U机箱,U机箱安装GPU节点。本发明专利技术的有益效果为:计算节点I/O前置,方便与交换机互联,GPU节点前置两个QSFP‑DDx4接口,方便与另外一个GPU节点互联,组成GPU集群,线缆长度不超过1.5米,计算节点和GPU节点的PCIE信号(上行信号)通过背部的高密口采用背板的形式互联,方便运维,单个GPU节点的八个OAM模块可以在板内互联,也可以在节点之前通过Chip link cable互联组成一个大的GPU集群,大大提高AI计算能力。

An AI server architecture system supporting Intel GPU

The invention provides an AI server architecture system supporting Intel GPU, belonging to the technical field of AI server design. The technical scheme is as follows: including u double-layer chassis, the chassis includes chassis base, chassis upper cover and the middle partition between chassis base and chassis upper cover. The middle partition divides the interior of the chassis into upper layer and lower layer, the upper layer is u chassis, u chassis is installed with calculation node, the lower layer is u chassis, and u chassis is installed with GPU node. The beneficial effect of the invention is that the computing node i / O is in front, which is convenient for interconnection with the switch, the GPU node is in front of two qsfp \u2011 ddx4 interfaces, which is convenient for interconnection with another GPU node, forming a GPU cluster, the cable length is not more than 1.5m, and the PCIe signal (uplink signal) of the computing node and the GPU node is interconnected in the form of a backplane through the high-density port at the back, which is convenient for operation and maintenance Eight OAM modules can be interconnected in the board, or they can form a large GPU cluster through chip link cable interconnection before the node, which greatly improves the AI computing capacity.

【技术实现步骤摘要】
一种支持IntelGPU的AI服务器架构系统
本专利技术涉及AI服务器设计
,尤其涉及一种支持IntelGPU的AI服务器架构系统。
技术介绍
随着互联网的高速发展,AI市场(人工智能)也得到了迅速发展,AI市场的火热推动了以GPU服务器为主的AI基础设施市场取得了爆发式增长,未来伴随AI市场的发展和繁荣,AI基础设施市场仍将保持快速增长。目前的GPU服务器以NVIDIA的GPU模块为主,NVIDIA基本上垄断了GPU市场,为了打破这种局面,Intel推出了基于OCPOAM标准的IntelSpringCrestOAM模块,作为对标NVIDIA的SXM3模块。目前需要开发一种服务器架构来应用Intel的OAM模块,而现有技术中还没有解决上述难题的方案。
技术实现思路
本专利技术针对上述存在的问题,提供了一种支持IntelGPU的AI服务器架构系统,克服了Intel无法满足OAM模块的应用需求的弊端。本专利技术是通过以下技术方案实现的:一种支持IntelGPU的AI服务器架构系统,其特征在于,包括U双层机箱,所述机箱包括机箱底座、机箱上盖以及设置在所述机箱底座和所述机箱上盖之间的中部隔板,所述中部隔板将所述机箱内部分为上层以及下层,所述上层为U机箱,所述U机箱安装计算节点,所述下层为U机箱,所述U机箱安装GPU节点。进一步的,所述机箱包括前部和背部,所述前部上层设置有所述计算节点,所述前部下层设置有所述GPU节点,所述GPU节点前置I/O以及两个QSFP-DDx接口,所述背部设置有高密口,所述计算节点与所述GPU节点的PCIE信号通过所述高密口互联。进一步的,所述高密口处设置有背板。进一步的,所述计算节点包括计算节点电源板、电源转接板、主板、PCIE转接板以及所述U机箱,所述计算节点电源板将Clip-输入的V供电转换成V,通过线缆连接至所述电源转接板,所述电源转接板再通过金手指给所述主板供电,所述主板的四个xPCIE信号通过线缆连接至所述PCIE转接板,所述PCIE转接板再通过四个所述高密口输出,通过所述背板连接至所述GPU节点的Switch板。进一步的,所述GPU节点包括GPU节点电源板、所述Switch板、GPU板以及所述U机箱,所述GPU节点电源板将Clip-输入的V供电分成两路,其中一路V电路通过线缆连接至所述GPU板,且给八个OAM模块供电,另外一路转化成V电路,通过线缆连接至所述Switch板,给三个Switch芯片PEX供电。进一步的,所述Switch板采用两级Switch设计,一级switch的上行端口Port连接CPU,Port连接CPU,一级switch的Port与Port连接PCIEslot作为对外的IO,二级switch的Port连接一级Switch,Port连接CPU作为上行接口,其余Port连接八个所述OAM模块,前端通过高密口A和所述GPU板对接,后端设计有所述高密口与所述背板对接,向上连接至所述计算节点。进一步的,所述GPU板上设置有八个所述OAM模块,所述OAM模块为IntelSpringCrestOAM模块,八个所述OAM模块可以在所述GPU板内形成闭环,也可以在节点之前通过Chiplinkcable互联形成闭环。进一步的,所述GPU板包括前端和后端,所述前端设置有所述I/O和两个所述QSFP-DDx接口,所述后端通过所述高密口A与所述Switch板对接,所述OAM模块与所述高密口A之间设置有八个retimer芯片。进一步的,所述服务器架构系统包括四组所述U双层机箱,其中包括四组所述GPU节点,,四组所述GPU节点可通过ChipLinkcable互联组成一个个所述OAM模块的GPU集群。本专利技术的有益效果为:该服务器该服务器采用6U双层的机箱结构设计,上层2U机箱安装计算节点,下层4U机箱安装GPU节点;计算节点I/O前置,方便与交换机互联;GPU节点前置两个QSFP-DDx4接口,方便与另外一个GPU节点互联,组成GPU集群,线缆长度不能超过1.5米;计算节点和GPU节点的PCIE信号(上行信号)通过背部的高密口采用背板的形式互联,方便运维;单个GPU节点的八个OAM模块可以在板内互联,也可以在节点之前通过Chiplinkcable互联组成一个大的GPU集群,大大提高AI计算能力。附图说明图16U服务器正面示意图;图26U服务器背面示意图;图3计算节点示意图;图4GPU节点示意图;图5计算节点和GPU节点互联原理图;图6GPU板内部OAM互联示意图;图7机柜系统GPU节点之间互联示意图;其中,附图标记为:1、6U双层机箱;2、GPU节点;3、QSFP-DDx4接口;4、计算节点;5、I/O;6、背板;7、计算节点电源板;8、转换模块;9、电源转接板;10、主板;11、PCIE转接板;12、高密口;14、GPU节点电源板;15、GPU板;16、OAM模块;17.Retimer芯片;18、高密口A;19、Switch板;20、PXE9797。具体实施方式为能清楚说明本方案的技术特点,下面通过具体实施方式,对本方案进行阐述。本专利技术是一种支持IntelGPU的AI服务器架构系统,该系统可以有四组6U双层机箱1组成,其中包括四组GPU节点2,四组GPU节点2可通过ChipLinkcable互联组成一个32个OAM模块16的GPU集群。参见图1与图2,其中一组6U双层机箱1包括:机箱1包括机箱底座、机箱上盖以及设置在机箱底座和机箱上盖之间的中部隔板,中部隔板将机箱1内部分为上层以及下层,上层为2U机箱,2U机箱安装计算节点4,下层为4U机箱,4U机箱安装GPU节点2。将机箱1分为上层和下层结构设计,节约空间。机箱1包括前部和背部,前部上层设置有计算节点4,前部下层设置有GPU节点2,此处为计算节点4与GPU节点2的具体位置,GPU节点2前置I/O5以及两个QSFP-DDx4接口3,前置I/O5目的方便与交换机互联,QSFP-DDx4接口3,方便与另外一组GPU节点2互联,组成GPU集群,可以保证线缆长度不超过1.5米,背部设置有高密口12,计算节点4与GPU节点2的PCIE信号通过高密口12互联。高密口12处设置有背板6,设置背板6,可以减少线缆的设置,并且增加美观度。整个系统采用48V供电,除了GPU之外,其他系统还是要使用12V供电,所以GPU节点电源板14以及计算节点电源板均需要做48V转12V的设计,采用1000W的转换模块8。参见图3,计算节点4包括计算节点电源板7、电源转接板9、主板10、PCIE转接板11以及2U机箱,计算节点电源板7将Clip-13输入的48V供电转换成12V,通过线缆连接至电源转接板9,电源转接板9再通过金手指给主板10供电,主板10的四个x16PCIE信号通过线缆连接至PCIE转接板11,PCIE转接板11再通过四个高密口12输出,通过本文档来自技高网...

【技术保护点】
1.一种支持Intel GPU的AI服务器架构系统,其特征在于,包括6U双层机箱(1),所述机箱(1)包括机箱底座、机箱上盖以及设置在所述机箱底座和所述机箱上盖之间的中部隔板,所述中部隔板将所述机箱(1)内部分为上层以及下层,所述上层为2U机箱,所述2U机箱安装计算节点(4),所述下层为4U机箱,所述4U机箱安装GPU节点(2)。/n

【技术特征摘要】
1.一种支持IntelGPU的AI服务器架构系统,其特征在于,包括6U双层机箱(1),所述机箱(1)包括机箱底座、机箱上盖以及设置在所述机箱底座和所述机箱上盖之间的中部隔板,所述中部隔板将所述机箱(1)内部分为上层以及下层,所述上层为2U机箱,所述2U机箱安装计算节点(4),所述下层为4U机箱,所述4U机箱安装GPU节点(2)。


2.根据权利要求1所述的支持IntelGPU的AI服务器架构系统,其特征在于,所述机箱(1)包括前部和背部,所述前部上层设置有所述计算节点(4),所述前部下层设置有所述GPU节点(2),所述GPU节点(2)前置I/O(5)以及两个QSFP-DDx4接口(3),所述背部设置有高密口(12),所述计算节点(4)与所述GPU节点(2)的PCIE信号通过所述高密口(12)互联。


3.根据权利要求2所述的支持IntelGPU的AI服务器架构系统,其特征在于,所述高密口(12)处设置有背板(6)。


4.根据权利要求3所述的支持IntelGPU的AI服务器架构系统,其特征在于,所述计算节点(4)包括计算节点电源板(7)、电源转接板(9)、主板(10)、PCIE转接板(11)以及所述2U机箱,所述计算节点电源板(7)将Clip-13输入的48V供电转换成12V,通过线缆连接至所述电源转接板(9),所述电源转接板(9)再通过金手指给所述主板(10)供电,所述主板(10)的四个x16PCIE信号通过线缆连接至所述PCIE转接板(11),所述PCIE转接板(11)再通过四个所述高密口(12)输出,通过所述背板(6)连接至所述GPU节点(2)的Switch板(19)。


5.根据权利要求4所述的支持IntelGPU的AI服务器架构系统,其特征在于,所述GPU节点(2)包括GPU节点电源板(14)、所述Switch板(19)、GPU板(15)以及所述4U机箱,所述GPU节点电源板(14)将Clip-13输入的48V供电分成两路,其中一路48V电路通...

【专利技术属性】
技术研发人员:吕振山蔡积淼
申请(专利权)人:苏州浪潮智能科技有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1