具有共享干预支持的非均匀存储器访问数据处理系统技术方案

技术编号:2886497 阅读:189 留言:0更新日期:2012-04-11 18:40
一种非均匀存储器访问计算机系统,包含每个都连接到一个节点互连的第一和第二处理节点。第一处理节点包含一个系统存储器及第一及第二处理器,两者都分别具有第一及第二高速缓存分级之一,高速缓存分级由局部互连连接进行通信。第二处理节点至少包含系统存储器及具有第三高速缓存分级的第三处理器。第一高速缓存分级和第三高速缓存分级可并发地存储“最近”相关状态下的特定高速缓存线的一份未经修改的拷贝,共享干预可从该处对该特定高速缓存线的拷贝定源。(*该技术在2019年保护过期,可自由使用*)

【技术实现步骤摘要】
本申请书涉及如下共同未决申请(1)参见申请号No.08/837,516,″Method of Shared Interventionfor Cache Lines in Shared State for an SMP Bus″,申请日为1997年4月14日。(2)参见申请号No.09/024,307,″Cache Coherency Protokol withGlobal and Local Recently Read State″,申请日为1998年2月27日。(3)参见申请号No.09/213,997,″Non-Uniform Memory Access(NUMA)Data Processing System Having Shared InterventionSupport″,申请日为1997年12月17日。本专利技术一般涉及数据处理方法及系统,特别涉及非均匀存储器访问(NUMA)数据处理系统中的数据处理。本专利技术还特别涉及在非均匀存储器访问(NUMA)数据处理系统中通过共享干预提供所需数据的非均匀存储器访问(NUMA)数据处理系统和方法。在计算机技术中公知可利用级联多片单个处理器的处理能力获得更好的计算机系统性能。多处理器(MP)计算机系统可采用多种拓扑进行设计,其中不同的拓扑可能更好地适于某些具体应用,依所需性能及各应用的软件环境而定。最通常的多处理器(MP)计算机拓扑为对称多处理器(SMP)配置,其中的多处理器共享共用资源,如系统存储器及输入/输出(I/O)子系统,它们通常连接于共享系统的互连。此种计算机系统称为对称系统是因为在对称多处理器(SMP)计算机系统中在理想情况下所有的处理器相对存储于共享系统存储器中的数据都具有同样的访问等待时间。尽管对称多处理器(SMP)计算机系统容许使用相对简单的处理器间通信及数据共享方法,但对称多处理器(SMP)计算机系统具有有限的规模扩缩性。换言之,虽然一般可以预期通常的对称多处理器(SMP)计算机系统的性能会随着规模(即随着增加更多的处理器)而达到改进,但固有总线、存储器及输入/输出(I/O)带宽的限制却妨碍从调整对称多处理器(SMP)的规模超过由执行所决定的可优化利用这些共享资源的规模大小而获得的显著的好处。因此,对称多处理器(SMP)拓扑本身在一定程度上受到带宽限制的制约,特别是随着系统规模的加大在系统存储器方面尤其如此。从生产效率观点出发,对称多处理器(SMP)计算机系统的规模设计不良。比如,虽然某些部件可针对在单处理器及小规模对称多处理器(SMP)计算机系统中使用都进行优化,但这些部件用于大规模对称多处理器(SMP)中经常效率低下。反之,从成本观点出发,用于大规模对称多处理器(SMP)中的部件也不适合用于小型计算机系统。结果,就出现了一种称为非均匀存储器访问(NUMA)的多处理器(MP)计算机系统拓扑作为一种以增加某些复杂性为代价来克服对称多处理器(SMP)计算机系统的许多限制的另外一种替代设计。典型的非均匀存储器访问(NUMA)数据处理系统包含多个互连节点,每个节点包含一个或多个处理器及局部“系统”存储器。此种计算机系统称为具有非均匀存储器访问是因为每个处理器对在其局部节点处的系统存储器中所存储的数据的访问等待时间低于对远方节点处的系统存储器中所存储的数据的访问等待时间。非均匀存储器访问系统可根据数据等待时间是否是在不同节点中的高速缓存中间维持而进一步划分为非相关或高速缓存相关系统。高速缓存相关非均匀存储器访问(CC-NUMA)系统的复杂性在很大程度上可归因于硬件为了不仅在每个节点内部的各级高速缓存存储器和系统存储器之间,而且在不同节点中的高速缓存和系统存储器之间保持数据相关性而需要的额外通信。然而,非均匀存储器访问(NUMA)计算机系统的确可克服通常的对称多处理器(SMP)计算机系统规模扩缩性的限制,因为在非均匀存储器访问(NUMA)计算机系统中每个节点都可作为更小的对称多处理器(SMP)系统。于是,在每个节点内部的共享部件可针对只使用少数处理器进行优化,而同时整个系统可在保持相对低等待时间的同时从可获得更大规模的并行度而受益。对高速缓存相关非均匀存储器访问(CC-NUMA)计算机系统的主要性能的关心是与通过连接节点的互连传送的通信事务相关联的等待时间。特别是,当以常驻远方系统存储器中的数据为目标时,最通常类型的事务的读出型事务与以常驻局部系统存储器中的数据为目标的读出数据相比较,可具有两倍的等待时间。因为与在节点互连上传输的读出事务相关联的等待时间与在局部互连上的读出事务相比较相对高,所以减小请求通过节点互连传输的读出型事务的数目,以及减小此种远方读出型事务的等待时间,是有用并且是所希望的。根据本专利技术,在非均匀存储器访问(NUMA)计算机系统中的读出请求的数目及等待时间可通过支持共享干预而减少。根据本专利技术的非均匀存储器访问(NUMA)计算机系统至少包含每个都连接到一个节点互连的第一和第二处理节点。第一处理节点包含一个系统存储器及第一及第二处理器,两者都分别具有第一及第二高速缓存分级之一,高速缓存分级由局部互连连接进行通信。第二处理节点至少包含系统存储器及具有第三高速缓存分级的第三处理器。第一高速缓存分级和第三高速缓存分级可并发地存储“最近”相关状态下的特定高速缓存线的一份未经修改的拷贝,共享干预可从该处对该特定高速缓存线的拷贝定源。响应第二高速缓存分级对特定高速缓存线请求,第一高速缓存分级通过只利用局部互连通信而不利用节点互连通信的共享干预将特定高速缓存线拷贝定源于第二高速缓存分级。本专利技术的所有目的、特点和优点在下面的详细书面描述中将变得很明显。确信为本专利技术特征的新特点在后附的权利请求中提出。然而,本专利技术本身,及其应用的优选模式、其他目的及优点,在参考附图阅读下面的实施例的详细描述时将会连接得最为清楚。在附图中附图说明图1示出根据本专利技术的非均匀存储器访问(NUMA)计算机系统的实施例;而图2为图1中示出的节点控制器的更为详细的框图。下面参考附图,特别是参考图1介绍根据本专利技术的非均匀存储器访问(NUMA)计算机系统的实施例。所描述的实施例可作为,比如,工作站、服务器或大型机实现。如图所示,非均匀存储器访问(NUMA)计算机系统6包含多个(N≥2)处理节点8a-8n,这些节点由节点互连22互连。处理节点8a-8n每个都可包含M(M≥0)个处理器10、局部互连16及通过存储器控制器17访问的系统存储器18。处理器10a-10m最好是(但不是必须是)完全一样的,并且可以是纽约Armonk的IBM公司出售的处理器的PowerPCTM线中的一个处理器。除了一般称为处理器核心12的寄存器、指令流逻辑及用来执行程序指令的执行单元之外,处理器10a-10m中的每一个都还包含一个用来从系统存储器18将数据定级到相关的处理器核心12的单片高速缓存分级。每个高速缓存分级14包含至少一个高速缓存级并可包含,比如,一个高速缓存级1(L1)和一个高速缓存级1(L2),分别具有在8-32千字节(kB)和1-16兆字节(MB)之间的存储能力。一般此种高速缓存由高速缓存控制器管理,此管理器,除了其他功能之外,实施选定高速缓存线替换方案及相关协议。在本公开中,每个处本文档来自技高网...

【技术保护点】
一种计算机系统,包括: 节点互连; 每个都连接到所述节点互连的第一和第二处理节点,其中所述第一处理节点包含一个系统存储器及第一及第二处理器,两者都分别具有第一及第二高速缓存分级之一,所述第一及第二高速缓存分级由局部互连连接,并且其中所述第二处理节点至少包含系统存储器及具有第三高速缓存分级的第三处理器; 其中所述第一高速缓存分级和所述第三高速缓存分级可并发地存储“最近”相关状态下的特定高速缓存线的一份未经修改的拷贝,共享干预可从该处对所述特定高速缓存线的拷贝定源,并且其中响应所述第二高速缓存分级对所述特定高速缓存线请求,所述第一高速缓存分级通过只利用所述局部互连通信而不利用所述节点互连通信的共享干预将所述特定高速缓存线拷贝定源于所述第二高速缓存分级。

【技术特征摘要】
...

【专利技术属性】
技术研发人员:加里D卡彭特马克E迪恩戴维B格拉斯科
申请(专利权)人:国际商业机器公司
类型:发明
国别省市:US[美国]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1