【技术实现步骤摘要】
【国外来华专利技术】用于检索数据的应用程序编程接口
[0001]相关申请的交叉引用
[0002]本申请要求于2021年9月17日提交的名称为“用于检索数据的应用程序编程接口(APPLICATION PROGRAMMING INTERFACE TO RETRIEVE DATA)”的申请号为202111042206的印度专利申请以及于2021年11月9日提交的名称为“用于检索数据的应用程序编程接口(APPLICATION PROGRAMMING INTERFACE TO RETRIEVE DATA)”的序列号为17/522,605的美国专利申请的优先权,其全部公开内容通过引用并入本文中。
[0003]至少一个实施例涉及将稀疏数组和/或经mip映射的(mip
‑
mapped)数组动态地加载到图形处理单元(GPU)中。例如,至少一个实施例涉及用于执行一个或更多个CUDA程序的处理资源,所述一个或更多个CUDA程序将稀疏数组动态地加载到GPU中,以便GPU能够将该稀疏数组数据用于图形处理任务。在另一示例中,至少一个实施例涉及用于执行一个或更多个CUDA程序的处理资源,所述一个或更多个CUDA程序将经mip映射的数组动态地加载到GPU中,以便GPU能够将所述经mip映射的数组数据用于图形处理任务。
技术介绍
[0004]在GPU中使用动态加载的数组能够极大地改进功能,因为GPU能够分配超过可用物理存储器大小的存储器,将分配的存储器与虚拟存储器表相关联,然后根据需要将存储器动态加载到物理存储器中。例如,当高分辨率纹理 ...
【技术保护点】
【技术特征摘要】
【国外来华专利技术】1.一种处理器,其包括:一个或更多个电路,所述一个或更多个电路用于使得至少部分地基于应用程序编程接口(“API”)来指示数据的位置以及从所述位置检索所述数据。2.根据权利要求1所述的处理器,其中,所述API指示所述数据的驻留。3.根据权利要求1所述的处理器,其中,所述位置由数组引用指示。4.根据权利要求1所述的处理器,其中:所述位置由数组引用来指示,所述数组引用存储在图形处理单元(“GPU”)中;以及所述数组引用指示连接到所述GPU的存储器中的存储器位置。5.根据权利要求1所述的处理器,其中:所述位置由数组引用来指示,所述数组引用存储在并行处理单元(“PPU”)的存储器中;以及所述数组引用指示连接到所述PPU的存储器中的存储器位置。6.根据权利要求1所述的处理器,其中,所述API使得执行第二API,所述第二API使得至少部分地基于所述数据的所述位置将所述数据映射到与GPU连接的存储器。7.根据权利要求1所述的处理器,其中,所述数据为稀疏数组数据。8.根据权利要求1所述的处理器,其中,所述数据是经mip映射的数组数据。9.根据权利要求1所述的处理器,其中,所述数据是纹理数据。10.一种方法,其包括:使用应用程序编程接口(“API”)来指示数据的位置;以及至少部分地基于所述API从所述位置检索所述数据。11.根据权利要求10所述的方法,其中,所述位置由数组引用指示。12.根据权利要求10所述的方法,进一步包括:使用第二API,至少部分地基于所述位置将所述数据映射到与图形处理单元(“GPU”)连接的存储器。13.根据权利要求10所述的方法,进一步包括:使用第二API,至少部分地基于所述位置将所述数据从与GPU连接的存储器解映射。14.根据权利要求10所述的方法,其中,所述API指示所述数据被映射到与图形处理单元(“GPU”)连接的存储器。15.根据权利要求10所述的方法,其中,所述API指示所述数据未被映射到与图形处理单元(“GPU”)连接的存储器。16.根据权利要求10所述的方法,进一步包括:使用第二API,至少部分地基于所述位置来确定所述数据是否被映射到与GPU连接的存储器。17.根据权利要求10所述的方法,其中,所述位置由对连接到GPU的存储器的引用来指示,并且其中,所述引用存储在所述GPU中。18.根据权利要求10所述的方法,其中,所述位置由对连接到并行处理单元(“PPU”)的存储器的引用来指示,并且其中,所述引用存储在所述PPU中。19.一种计算机系统,其包括存储器和一个或更多个处理器,所述存储器存储可执行指令,所述可执行指令作为由所述一个或更多个处理器执行的结果,使得所述计算机系统:
使得至少部分地基于应用程序编程接口(“API”)来指示数据的位置以及从所述位置检索所述数据。20.根据权利要求19所述的计算机系统,其中,所述API指示所述数据的驻留。21.根据权利要求19所述的计算机系统,其中,所述位置由数组引...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。