促进针对计算环境中的任务执行的执行感知混合抢占的制作方法

文档序号:15739253发布日期:2018-10-23 22:00阅读:166来源:国知局
促进针对计算环境中的任务执行的执行感知混合抢占的制作方法

本文中所描述的各实施例大体涉及计算机。更具体地,各实施例被描述成用于促进针对计算环境中的任务执行的执行感知混合抢占。



背景技术:

图形处理单元负责现代计算系统中的各种任务,例如绘制显示、解码或编码视频、渲染三维视觉、执行任意用户定义的计算任务等。例如,传统技术(例如,停止当前任务以便执行其他更重要的任务等)导致低效率和资源浪费与等待时间之间的典型权衡(tradeoff),这种典型权衡是缺乏平衡的。

附图说明

各实施例作为示例而非限制在所附附图的各图中示出,在附图中,相似的参考编号指代相似的元素。

图1是根据实施例的处理系统的框图。

图2是处理器的实施例的框图,所述处理器具有一个或多个处理器核、集成存储器控制器以及集成图形处理器。

图3是图形处理器的框图,所述图形处理器可以是分立的图形处理单元,或可以是与多个处理核集成的图形处理器。

图4是根据一些实施例的图形处理器的图形处理引擎的框图。

图5是图形处理器的另一实施例的框图。

图6示出线程执行逻辑,所述线程执行逻辑包括在图形处理引擎的一些实施例中采用的处理元件的阵列。

图7是示出根据一些实施例的图形处理器指令格式的框图。

图8是图形处理器的另一实施例的框图。

图9A是示出根据实施例的图形处理器命令格式的框图,以及图9B是示出根据实施例的图形处理器命令序列的框图。

图10示出根据一些实施例的用于数据处理系统的示例性图形软件架构。

图11是示出了根据实施例的可用于制造集成电路以执行操作的IP核开发系统的框图。

图12是示出了根据实施例的可以使用一个或多个IP核来制造的示例性芯片上系统集成电路的框图。

图13示出了根据一个实施例的采用混合抢占机制的计算设备。

图14A示出了根据一个实施例的混合抢占机制。

图14B示出了根据一个实施例的架构布置。

图15A示出了根据一个实施例的用于促进计算设备处的混合抢占的方法。

图15B示出了根据一个实施例的用于促进计算设备处的混合抢占的方法。

具体实施方式

在以下描述中,陈述了众多特定细节。然而,可在不具有这些特定细节的情况下实践本文中所述的诸实施例。在其他实例中,没有详细示出公知的电路、结构以及技术,以便不至于使对本描述的理解变得模糊。

实施例提供了一种新颖的混合抢占技术,以用于估计细粒度(也称为“线程级”)抢占还是粗粒度(也称为“工作组级”)抢占之间的等待时间权衡。基于该估计,该新颖技术可以在细粒度抢占(诸如,当需要提供可接受的用户体验时)和粗粒度抢占(诸如在节省相关功率和性能时)之间进行选择。

这种新颖的混合抢占技术提供了替代的抢占技术,其中可以根据需要或期望选择细粒度抢占和粗粒度抢占中的一者。例如,当工作负载包括长期运行的任务时,这种新颖的混合抢占技术可以选择并实施细粒度抢占,以确保良好的用户体验。类似地,例如,当工作负载包括短期运行的任务时,这种新颖的混合抢占技术可以选择并实施粗粒度抢占,以在维持良好的用户体验的同时提高性能并节省功率。

可以预见,贯穿本文档,可以互换地引用诸如“请求”、“查询”、“作业”、“工作”、“工作项”和“工作负荷”之类的术语。类似地,“应用”或“代理”可以指代或包括通过诸如自由渲染API(诸如开放图形库11,12等)之类的API提供的计算机程序、软件应用、游戏、工作站应用等,其中“分派”可以互换地称为“工作单位”或“绘制”,并且类似地,“应用”可以互换地称为“工作流”或简单地称为“代理”。例如,诸如3D游戏工作负荷之类的工作负荷可以包括并发布任何数量和类型的“帧”,其中,每个帧可以表示图像(例如,帆船、人脸)。此外,每个帧可以包括并提供任何数量和类型的工作单元,其中,每个工作单元可以表示由其相应帧表示的图像(例如,帆船、人脸)的一部分(例如,帆船的桅杆、人脸的前额)。然而,为了一致性,贯穿本文档,每一项可以由单个术语(例如,“分派”、“代理”等)来引用。

在一些实施例中,如“显示屏”和“显示表面”之类的术语可用于互换地指代显示设备的可见部分,而显示设备的其余部分可以被嵌入到诸如智能电话、可穿戴设备之类的计算设备中。可以预见并且应当注意,实施例不限于任何特定的计算设备、软件应用、硬件部件、显示设备、显示屏或表面、协议、标准等。例如,实施例可被应用于并且可以与在任何数量和类型的计算机上的任何数量和类型的实时应用一起使用,所述计算机诸如台式机、膝上型计算机、平板计算机、智能电话、头戴式显示器、以及其他可穿戴设备等。进一步地,例如,使用这种新颖技术渲染高效性能的场景可以用在从诸如桌面合成等简单场景到诸如3D游戏、增强现实应用等复杂场景的范围。

系统概览

图1是根据实施例的处理系统100的框图。在各实施例中,系统100包括一个或多个处理器102以及一个或多个图形处理器108,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器102或处理器核107的服务器系统。在一个实施例中,系统100是被纳入到用于在移动设备、手持式设备或嵌入式设备中使用的芯片上系统(SoC)集成电路内的处理平台。

系统100的实施例可以包括或并入基于服务器的游戏平台、游戏控制台,包括游戏与媒体控制台、移动游戏控制台、手持式游戏控制台、或在线游戏控制台。在一些实施例中,系统100是移动电话、智能电话、平板计算设备或移动互联网设备。数据处理系统100还可包括可穿戴设备(诸如智能手表可穿戴设备、智能眼镜设备、增强现实设备、或虚拟现实设备)、与所述可穿戴设备耦合、或者集成在所述可穿戴设备中。在一些实施例中,数据处理系统100是电视或机顶盒设备,所述电视或机顶盒设备具有一个或多个处理器102以及由一个或多个图形处理器108生成的图形界面。

在一些实施例中,一个或多个处理器102每个包括用于处理指令的一个或多个处理器核107,所述指令在被执行时执行系统和用户软件的操作。在一些实施例中,一个或多个处理器核107中的每个处理器核被配置成用于处理特定的指令集109。在一些实施例中,指令集109可以促进复杂指令集计算(CISC)、精简指令集计算(RISC)、或经由超长指令字(VLIW)的计算。多个处理器核107可以各自处理不同的指令集109,所述指令集可以包括用于促进对其他指令集进行仿真的指令。处理器核107还可以包括其他处理设备,如数字信号处理器(DSP)。

在一些实施例中,处理器102包括高速缓存存储器104。取决于架构,处理器102可以具有单个内部高速缓存或内部高速缓存的多个级。在一些实施例中,在处理器102的各部件当中共享高速缓存存储器。在一些实施例中,处理器102还使用外部高速缓存(例如,3级(L3)高速缓存或末级高速缓存(LLC))(未示出),可以使用已知的高速缓存一致性技术来在处理器核107当中共享外部高速缓存。另外地,寄存器堆106包括在处理器102中,所述处理器可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器、和指令指针寄存器)。一些寄存器可以是通用寄存器,而其他寄存器可以特定于处理器102的设计。

在一些实施例中,处理器102耦合至处理器总线110,所述处理器总线用于在处理器102与系统100内的其他部件之间传输通信信号,例如地址、数据、或控制信号。在一个实施例中,系统100使用示例性‘中枢’系统架构,包括存储器控制器中枢116和输入输出(I/O)控制器中枢130。存储器控制器中枢116促进存储器设备与系统100的其他部件之间的通信,而I/O控制器中枢(ICH)130经由本地I/O总线提供与I/O设备的连接。在一个实施例中,存储器控制器中枢116的逻辑集成在处理器内。

存储器设备120可以是动态随机存取存储器(DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变存储器设备、或具有合适的性能用作处理存储器的某个其他存储器设备。在一个实施例中,存储器设备120可作为系统100的系统存储器进行操作,以存储数据122和指令121,以供在一个或多个处理器102执行应用或进程时使用。存储器控制器中枢116还与可选的外部图形处理器112耦合,所述可选的外部图形处理器可以与处理器102中的一个或多个图形处理器108通信,从而执行图形和媒体操作。

在一些实施例中,ICH 130使得外围部件经由高速I/O总线连接至存储器设备120和处理器102。I/O外围装置包括但不限于:音频控制器146、固件接口128、无线收发机126(例如,Wi-Fi、蓝牙)、数据存储设备124(例如,硬盘驱动器、闪存等)、以及用于将传统(例如,个人系统2(PS/2))设备耦合至所述系统的传统I/O控制器140。一个或多个通用串行总线(USB)控制器142连接多个输入设备,例如键盘和鼠标144组合。网络控制器134还可以耦合至ICH 130。在一些实施例中,高性能网络控制器(未示出)耦合至处理器总线110。应当理解,所示出的系统100是示例性的而非限制性的,因为还可以使用以不同方式配置的其他类型的数据处理系统。例如,I/O控制器中枢130可以集成在一个或多个处理器102内,或者存储器控制器中枢116和I/O控制器中枢130可以集成在分立式外部图形处理器(诸如外部图形处理器112)内。

图2是处理器200的实施例的框图,所述处理器具有一个或多个处理器核202A至202N、集成存储器控制器214、以及集成图形处理器208。图2的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。处理器200可包括多达且包括由虚线框表示的附加核202N的附加核。处理器核202A至202N各自包括一个或多个内部高速缓存单元204A至204N。在一些实施例中,每个处理器核还可以访问一个或多个共享的高速缓存单元206。

内部高速缓存单元204A至204N和共享高速缓存单元206表示处理器200内部的高速缓存存储器层级结构。高速缓存存储器层级结构可以包括每个处理器核内的至少一级指令和数据高速缓存以及一级或多级共享中级高速缓存,诸如2级(L2)、3级(L3)、4级(L4)、或其他级的高速缓存,其中,最高级的高速缓存在外部存储器之前被分类为LLC。在一些实施例中,高速缓存一致性逻辑维持各高速缓存单元206与204A至204N之间的一致性。

在一些实施例中,处理器200还可以包括一组一个或多个总线控制器单元216和系统代理核210。一个或多个总线控制器单元216管理一组外围总线,诸如一个或多个外围部件互连总线(例如,PCI、PCI Express)。系统代理核210提供对各处理器部件的管理功能。在一些实施例中,系统代理核210包括一个或多个集成存储器控制器214用于管理对各外部存储器设备(未示出)的访问。

在一些实施例中,处理器核202A至202N中的一个或多个包括对同步多线程的支持。在这种实施例中,系统代理核210包括用于在多线程处理过程中协调和操作核202A至202N的部件。另外,系统代理核210还可以包括功率控制单元(PCU),所述功率控制单元包括用于调节处理器核202A至202N的功率状态的逻辑和部件以及图形处理器208。

在一些实施例中,另外,处理器200还包括用于执行图形处理操作的图形处理器208。在一些实施例中,图形处理器208耦合至共享高速缓存单元206集以及系统代理核210,所述系统代理核包括一个或多个集成存储器控制器214。在一些实施例中,显示控制器211与图形处理器208耦合以便将图形处理器输出驱动到一个或多个耦合的显示器。在一些实施例中,显示控制器211可以是经由至少一个互连与图形处理器耦合的单独模块,或者可以集成在图形处理器208或系统代理核210内。

在一些实施例中,基于环的互连单元212用于耦合处理器200的内部部件。然而,可以使用替代性互连单元,比如点到点互连、切换式互连、或其他技术,包括本领域众所周知的技术。在一些实施例中,图形处理器208经由I/O链路213与环形互连212耦合。

示例性I/O链路213表示多个I/O互连中的多个品种中的至少一种,包括促进各处理器部件与高性能嵌入式存储器模块218(比如eDRAM模块)之间的通信的封装体I/O互连。在一些实施例中,处理器核202A至202N中的每个处理器核以及图形处理器208将嵌入式存储器模块218用作共享末级高速缓存。

在一些实施例中,处理器核202A至202N是执行相同指令集架构的均质核。在另一实施例中,处理器核202A至202N在指令集架构(ISA)方面是异构的,其中,处理器核202A-N中的一者或多者执行第一指令集,而其他核中的至少一者执行所述第一指令集的子集或不同的指令集。在一个实施例中,处理器核202A至202N就微架构而言是同质的,其中,具有相对较高功耗的一个或多个核与具有较低功耗的一个或多个功率核耦合。另外,处理器200可以实现在一个或多个芯片上或者被实现为具有除其他部件之外的所展示的部件的SoC集成电路。

图3是图形处理器300的框图,所述图形处理器可以是分立式图形处理单元、或者可以是与多个处理核集成的图形处理器。在一些实施例中,图形处理器经由到图形处理器上的寄存器的映射I/O接口并且利用被放置在处理器存储器中的命令与存储器进行通信。在一些实施例中,图形处理器300包括用于访问存储器的存储器接口314。存储器接口314可以是到本地存储器、一个或多个内部高速缓存、一个或多个共享外部高速缓存、和/或到系统存储器的接口。

在一些实施例中,图形处理器300还包括显示控制器302,所述显示控制器用于将显示输出数据驱动到显示设备320。显示控制器302包括用于显示器的一个或多个重叠平面的硬件以及多层视频或用户接口元件的组成。在一些实施例中,图形处理器300包括用于编码、解码、或者向、从或在一个或多个媒体编码格式之间进行媒体代码转换的视频编解码器引擎306,包括但不限于:运动图像专家组(MPEG)(诸如MPEG-2)、高级视频编码(AVC)格式(诸如H.264/MPEG-4AVC)、以及电影&电视工程师协会(SMPTE)421M/VC-1、和联合图像专家组(JPEG)格式(诸如JPEG、以及运动JPEG(MJPEG)格式)。

在一些实施例中,图形处理器300包括用于执行二维(2D)光栅化器操作包括例如位边界块传递的块图像传递(BLIT)引擎304。然而,在一个实施例中,使用图形处理引擎(GPE)310的一个或多个部件执行2D图形操作。在一些实施例中,图形处理引擎310是用于执行图形操作的计算引擎,所述图形操作包括三维(3D)图形操作和媒体操作。

在一些实施例中,GPE 310包括用于执行3D操作的3D流水线312,比如使用作用于3D图元形状(例如,矩形、三角形等)的处理功能来渲染三维图像和场景。3D流水线312包括可编程且固定的功能元件,所述可编程且固定的功能元件在到3D/媒体子系统315的元件和/或生成的执行线程内执行各种任务。虽然3D流水线312可以用于执行媒体操作,但是GPE 310的实施例还包括媒体流水线316,所述媒体流水线具体地用于执行媒体操作,诸如视频后处理和图像增强。

在一些实施例中,媒体流水线316包括固定功能或可编程逻辑单元以便代替、或代表视频编解码器引擎306来执行一种或多种专门的媒体操作,比如视频解码加速、视频解交织、以及视频编码加速。在一些实施例中,另外,媒体流水线316还包括线程生成单元以便生成用于在3D/媒体子系统315上执行的线程。所生成的线程对3D/媒体子系统315中所包括的一个或多个图形执行单元执行对媒体操作的计算。

在一些实施例中,3D/媒体子系统315包括用于执行3D流水线312和媒体流水线316生成的线程的逻辑。在一个实施例中,流水线向3D/媒体子系统315发送线程执行请求,所述3D/媒体子系统包括用于仲裁并将各请求分派到可用的线程执行资源的线程分派逻辑。执行资源包括用于处理3D和媒体线程的图形执行单元阵列。在一些实施例中,3D/媒体子系统315包括用于线程指令和数据的一个或多个内部高速缓存。在一些实施例中,所述子系统还包括共享存储器(包括寄存器和可寻址存储器)以便在线程之间共享数据并用于存储输出数据。

3D/媒体处理

图4是根据一些实施例的图形处理器的图形处理引擎410的框图。在一个实施例中,GPE 410是图3中示出的GPE 310的版本。图4具有与本文中的任意其他附图的元件相同的附图标记(或名称)的元件可以以类似于本文中其他地方描述的任何方式操作或运行,但不限于此。

在一些实施例中,GPE 410与命令流转化器(command streamer)403耦合,所述命令流转化器403将命令流提供至GPE 3D和媒体流水线412、416。在一些实施例中,命令流转化器403耦合至存储器,所述存储器可以是系统存储器、或者内部高速缓存存储器和共享高速缓存存储器中的一个或多个。在一些实施例中,命令流转化器403从存储器接收命令,并且将这些命令发送至3D流水线412和/或媒体流水线416。这些命令是从环形缓冲器中取出的指令,该环形缓冲器存储用于3D和媒体流水线412、416的命令。在一个实施例中,环形缓冲器可以附加地包括存储批量的多个命令的批量命令缓冲器。3D和媒体流水线412、416通过以下方式来处理命令:经由相应流水线内的逻辑来执行操作;或将一个或多个执行线程分派给执行单元阵列414。在一些实施例中,执行单元阵列414是可缩放的,使得该阵列包括基于GPE 410的目标功率和性能水平的可变数量的执行单元。

在一些实施例中,采样引擎430与存储器(例如,高速缓存存储器或系统存储器)以及执行单元阵列414耦合。在一些实施例中,采样引擎430提供用于执行单元阵列414的存储器访问机制,所述存储器访问机制允许执行阵列414从存储器读取图形和媒体数据。在一些实施例中,采样引擎430包括用于为媒体执行专业图像采样操作的逻辑。

在一些实施例中,采样引擎430中的专业媒体采样逻辑包括去噪/去隔行模块432、运动估计模块434以及图像缩放和过滤模块436。在一些实施例中,去噪/去隔行模块432包括用于对经解码的视频数据执行去噪或去隔行中的一者或多者的逻辑。去隔行逻辑将隔行的(interlaced)视频内容的交替场(alternating field)组合为单个视频帧。去噪逻辑降低或去除来自视频和图像数据的数据噪声。在一些实施例中,去噪逻辑和去隔行逻辑是运动自适应的,并且基于在视频数据中检测到的运动量来使用空间或时间上的过滤。在一些实施例中,去噪/去隔行模块432包括专用运动检测逻辑(例如,在运动估计引擎434内)。

在一些实施例中,运动估计引擎434通过对视频数据执行视频加速功能(诸如,运动向量估计和预测)来提供对视频操作的硬件加速。运动估计引擎确定运动向量,所述运动向量描述图像数据在连续的视频帧之间的变换。在一些实施例中,图形处理器媒体编解码器(codec)使用视频运动估计引擎434以在宏块层级上对视频执行操作,所述在宏块层级上对视频的操作否则可能会是太过计算密集的以致不能利用通用处理器来执行。在一些实施例中,运动估计引擎434一般可用于图形处理器部件以辅助视频解码和处理功能,所述视频解码和处理功能对视频数据内的运动的方向或幅度是敏感的或自适应于视频数据内的运动的方向或幅度。

在一些实施例中,图像缩放和过滤模块436执行图像处理操作以增强所生成的图像和视频的视觉质量。在一些实施例中,缩放和过滤模块436在将数据提供至执行单元阵列414之前的采样操作期间处理图像和视频数据。

在一些实施例中,GPE 410包括数据端口444,所述数据端口444为图形子系统提供访问存储器的附加机制。在一些实施例中,数据端口444促进用于操作的存储器访问,所述操作包括渲染目标写入、恒定缓冲器读取、抓取存储器空间读取/写入,以及媒体表面访问。在一些实施例中,数据端口444包括用于对存储器的访问进行高速缓存的高速缓存存储器空间。高速缓存存储器可以是单个数据高速缓存,或者可被分离成用于经由数据端口来访问存储器的多个子系统的多个高速缓存(例如,渲染缓冲器高速缓存、恒定缓冲器高速缓存,等等)。在一些实施例中,在执行单元阵列414中的执行单元上执行的线程通过经由数据分配互连交换消息来与数据端口通信,所述数据分配互连耦合GPE 410的子系统中的每一个。

执行单元

图5是图形处理器500的另一个实施例的框图。图5的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。

在一些实施例中,图形处理器500包括环形互连502、流水线前端504、媒体引擎537、以及图形核580A至580N。在一些实施例中,环形互连502将图形处理器耦合至其他处理单元,包括其他图形处理器或者一个或多个通用处理器核。在一些实施例中,图形处理器是集成在多核处理系统内的多个处理器之一。

在一些实施例中,图形处理器500经由环形互连502接收多批命令。传入命令由流水线前端504中的命令流转化器503来解译。在一些实施例中,图形处理器500包括用于经由(多个)图形核580A至580N执行3D几何处理和媒体处理的可缩放执行逻辑。对于3D几何处理命令,命令流转化器503将命令供应至几何流水线536。针对至少一些媒体处理命令,命令流转化器503将命令供应至视频前端534,所述视频前端与媒体引擎537耦合。在一些实施例中,媒体引擎537包括用于视频和图像后处理的视频质量引擎(VQE)530以及用于提供硬件加速的媒体数据编码和解码的多格式编码/解码(MFX)533引擎。在一些实施例中,几何流水线536和媒体引擎537各自生成执行线程,所述执行线程用于由至少一个图形核580A提供的线程执行资源。

在一些实施例中,图形处理器500包括可扩展线程执行资源表征模块核580A至580N(有时被称为核分片),各个可扩展线程执行资源表征模块核具有多个子核550A至550N、560A至560N(有时被称为核子分片)。在一些实施例中,图形处理器500可以具有任意数量的图形核580A至580N。在一些实施例中,图形处理器500包括图形核580A,所述图形核至少具有第一子核550A和第二核子核560A。在其他实施例中,图形处理器是具有单个子核(例如,550A)的低功率处理器。在一些实施例中,图形处理器500包括多个图形核580A至580N,所述图形核各自包括一组第一子核550A至550N和一组第二子核560A至560N。所述一组第一子核550A至550N中的每个子核至少包括第一组执行单元552A至552N和媒体/纹理采样器554A至554N。所述一组第二子核560A至560N中的每个子核至少包括第二组执行单元562A至562N和采样器564A至564N。在一些实施例中,每个子核550A至550N、560A至560N共享一组共享资源570A至570N。在一些实施例中,所述共享资源包括共享高速缓存存储器和像素操作逻辑。其他共享资源也可以包括在图形处理器的各实施例中。

图6展示了线程执行逻辑600,所述线程执行逻辑包括在GPE的一些实施例中采用的处理元件阵列。图6的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。

在一些实施例中,线程执行逻辑600包括像素着色器602、线程分派器604、指令高速缓存606、包括多个执行单元608A-608N的可缩放执行单元阵列、采样器610、数据高速缓存612和数据端口614。在一个实施例中,所包括的部件经由互连结构被互连,所述互连结构链接至部件中的每一个。在一些实施例中,线程执行逻辑600包括通过指令高速缓存606、数据端口614、采样器610和执行单元阵列608A-608N中的一者或多者而至存储器(诸如,系统存储器或高速缓存存储器)的一个或多个连接。在一些实施例中,每一个执行单元(例如,608A)是能够为每一个线程并行地执行多个同时的线程并处理多个数据元素的单独的向量处理器。在一些实施例中,执行单元阵列608A-608N包括任何数量的单独执行单元。

在一些实施例中,执行单元阵列608A-608N主要用于执行“着色器”程序。在一些实施例中,阵列608A-608N中的执行单元执行包括对许多标准的3D图形着色器指令的原生支持的指令集,使得以最少的转换来执行来自图形库(例如,Direct 3D和OpenGL)的着色器程序。执行单元支持顶点和几何处理(例如,顶点程序、几何程序、顶点着色器)、像素处理(例如,像素着色器、片段着色器)和通用处理(例如,计算和媒体着色器)。

执行单元阵列608A至608N中的每个执行单元在数据元素阵列上进行操作。数据元素的数量是“执行大小”、或指令的信道数。执行通道是执行数据元素访问、掩蔽、和指令内的流控制的逻辑单元。通道的数量可以与针对特定图形处理器的物理算术逻辑单元(ALU)或浮点单元(FPU)的数量无关。在一些实施例中,执行单元608A至608N支持整数和浮点数据类型。

执行单元指令集包括单指令多数据(SIMD)指令。各种数据元素可作为压缩数据类型存储在寄存器中,并且执行单元将基于元素的数据大小来处理各种元素。例如,当在256位宽的向量上进行操作时,所述256位的向量存储在寄存器中,并且所述执行单元作为四个单独64位压缩数据元素(四倍字长(QW)大小的数据元素)、八个单独32位压缩数据元素(双倍字长(DW)大小的数据元素)、十六个单独16位压缩数据元素(字长(W)大小的数据元素)、或三十二个单独8位数据元素(字节(B)大小的数据元素)在所述向量上进行操作。然而,不同的向量宽度和寄存器大小是可能的。

一个或多个内部指令高速缓存(例如,606)包括在所述线程执行逻辑600中以便高速缓存所述执行单元的线程指令。在一些实施例中,一个或多个数据高速缓存(例如,612)被包括用于高速缓存在线程执行过程中的线程数据。在一些实施例中,采样器610被包括用于为3D操作提供纹理采样并且为媒体操作提供媒体采样。在一些实施例中,采样器610包括专门的纹理或媒体采样功能,以便在向执行单元提供采样数据之前在采样过程中处理纹理或媒体数据。

在执行期间,图形和媒体流水线经由线程繁衍和分派逻辑而将线程发起请求发送至线程执行逻辑600。在一些实施例中,线程执行逻辑600包括本地线程分派器604,所述本地线程分派器604仲裁来自图形和媒体流水线的线程发起请求,并且在一个或多个执行单元608A-608N上实例化所请求的线程。例如,几何流水线(例如,图5的536)将顶点处理、曲面细分(tessellation)或几何处理线程分派给线程执行逻辑600(图6)。在一些实施例中,线程分派器604也可处理来自执行着色器程序的运行时线程繁衍请求。

一旦一组几何对象已被处理并光栅化成像素数据,就调用像素着色器602,以进一步计算输出信息并使结果被写入输出表面(例如,颜色缓冲器、深度缓冲器、模板印刷(stencil)缓冲器等)。在一些实施例中,像素着色器602计算将跨光栅化的对象而被内插的各种顶点属性的值。在一些实施例中,像素着色器602随后执行应用编程接口(API)供应的像素着色器程序。为了执行像素着色器程序,像素着色器602经由线程分派器604而将线程分派给执行单元(例如,608A)。在一些实施例中,像素着色器602使用采样器610中的纹理采样逻辑来访问存储在存储器中的纹理映射中的纹理数据。对纹理数据和输入几何数据的算术操作计算用于每一个几何片段的像素颜色数据,或丢弃一个或多个像素而不进行进一步处理。

在一些实施例中,数据端口614提供存储器访问机制,供线程执行逻辑600将经处理的数据输出至存储器以便在图形处理器输出流水线上进行处理。在一些实施例中,数据端口614包括或耦合至一个或多个高速缓存存储器(例如,数据高速缓存612)从而经由数据端口高速缓存数据以供存储器访问。

图7是展示了根据一些实施例的图形处理器指令格式700的框图。在一个或多个实施例中,图形处理器执行单元支持具有多种格式的指令的指令集。实线框展示了通常包括在执行单元指令中的部件,而虚线包括可选的部件或仅包括在指令子集中的部件。在一些实施例中,所描述和展示的指令格式700是宏指令,因为它们是供应至执行单元的指令,这与从指令解码产生的微操作相反(一旦所述指令被处理)。

在一些实施例中,图形处理器执行单元原生地支持采用128位格式710的指令。64位紧凑指令格式730可用于基于所选指令、多个指令选项和操作数数量的一些指令。原生128位格式710提供对所有指令选项的访问,而一些选项和操作限制在64位格式730中。64位格式730中可用的原生指令根据实施例而不同。在一些实施例中,使用索引字段713中的一组索引值将指令部分地压缩。执行单元硬件基于索引值来参考一组压缩表,并使用压缩表输出来重构采用128位格式710的原生指令。

针对每种格式,指令操作码712限定执行单元要执行的操作。执行单元跨每个操作数的多个数据元素来并行地执行每条指令。例如,响应于添加指令,执行单元跨每个颜色通道执行同步添加操作,所述颜色通道表示纹理元素或图片元素。默认地,执行单元跨操作数的所有数据通道执行每条指令。在一些实施例中,指令控制字段714使能控制某些执行选项,诸如通道选择(例如,预测)以及数据通道排序(例如,混合)。针对128位指令710的,执行大小字段716限制了将并行执行的数据通道的数量。在一些实施例中,执行大小字段716不可用于64位紧凑指令格式730。

一些执行单元指令具有多达三个操作数,包括两个源操作数(src0 722、src1 722)和一个目的地718。在一些实施例中,执行单元支持双目的地指令,其中这些目的地之一是隐式的。数据操作指令可以具有第三源操作数(例如,SRC2 724),其中,指令操作码712确定源操作数的数量。指令的最后的源操作数可以是利用所述指令传递的即时(例如,硬编码)值。

在一些实施例中,128位指令格式710包括访问/地址模式信息726,所述访问/地址模式信息例如限定了是使用直接寄存器寻址模式还是间接寄存器寻址模式。当使用直接寄存器寻址模式时,直接由指令710中的位来提供一个或多个操作数的寄存器地址。

在一些实施例中,128位指令格式710包括访问/地址模式字段726,所述访问/地址模式字段指定指令的地址模式和/或访问模式。在一个实施例中,访问模式用于限定针对指令的数据访问对齐。一些实施例支持访问模式,包括16字节对齐访问模式和1字节对齐访问模式,其中,访问模式的字节对齐确定了指令操作数的访问对齐。例如,当在第一模式中时,指令710可以使用字节对齐寻址以用于源操作数和目的地操作数,并且当在第二模式中时,指令710可以使用16字节对齐寻址以用于所有的源操作数和目的地操作数。

在一个实施例中,访问/地址模式字段726的地址模式部分确定指令是使用直接寻址还是间接寻址。当使用直接寄存器寻址模式时,指令710中的位直接提供一个或多个操作数的寄存器地址。当使用间接寄存器寻址模式时,可以基于指令中的地址寄存器值和地址立即数字段来计算一个或多个操作数的寄存器地址。

在一些实施例中,基于操作码712位字段对指令进行分组从而简化操作码解码740。针对8位的操作码,第4、5、和6位允许执行单元确定操作码的类型。所示出的精确操作码分组仅是示例性的。在一些实施例中,移动和逻辑操作码组742包括数据移动和逻辑指令(例如,移动(mov)、比较(cmp))。在一些实施例中,移动和逻辑组742共享五个最高有效位(MSB),其中移动(mov)指令采用0000xxxxb的形式,而逻辑指令采用0001xxxxb的形式。流控制指令组744(例如,调用(call)、跳(jmp))包括采用0010xxxxb形式(例如,0x20)的指令。混杂指令组746包括指令的混合,包括采用0011xxxxb形式(例如,0x30)的同步指令(例如,等待(wait)、发送(send))。并行数学指令组748包括采用0100xxxxb形式(例如,0x40)的按分量的算术指令(例如,加(add)、乘(mul))。并行数学组748跨数据通道并行地执行算术运算。向量数学组750包括采用0101xxxxb形式(例如,0x50)的算术指令(例如,dp4)。向量数学组对向量操作数执行算术运算,诸如点积运算。

图形流水线

图8是图形处理器800的另一个实施例的框图。图8的具有与此处任何其他附图中的元件相同的参考号(或名称)的那些元件可采用与在本文中其他地方描述的方式相类似的任何方式进行操作或起作用,但不限于这些。

在一些实施例中,图形处理器800包括图形流水线820、媒体流水线830、显示引擎840、线程执行逻辑850、以及渲染输出流水线870。在一些实施例中,图形处理器800是包括一个或多个通用处理核的多核处理系统内的图形处理器。图形处理器受到至一个或多个控制寄存器(未示出)的寄存器写入的控制或者经由环形互连802经由发布至图形处理器800的命令被控制。在一些实施例中,环形互连802将图形处理器800耦合至其他处理部件,比如其他图形处理器或通用处理器。来自环形互连802的命令通过命令流转化器803被解译,所述命令流转化器将指令供应至图形流水线820或媒体流水线830的单独部件。

在一些实施例中,命令流转化器803引导顶点获取器805的操作,所述顶点获取器从存储器读取顶点数据并执行由命令流转化器803所提供的顶点处理命令。在一些实施例中,顶点获取器805将顶点数据提供给顶点着色器807,所述顶点着色器对每个顶点执行坐标空间变换和照明操作。在一些实施例中,顶点获取器805和顶点着色器807通过经由线程分派器831向执行单元852A至852B分派执行线程来执行顶点处理指令。

在一些实施例中,执行单元852A至852B是具有用于执行图形和媒体操作的指令集的向量处理器阵列。在一些实施例中,执行单元852A至852B具有附接的L1高速缓存851,所述高速缓存专用于每个阵列或在阵列之间共享。高速缓存可以被配置为数据高速缓存、指令高速缓存、或单个高速缓存,所述单个高速缓存被分区为包含不同分区中的数据和指令。

在一些实施例中,图形流水线820包括用于执行3D对象的硬件加速曲面细分的曲面细分部件。在一些实施例中,可编程的外壳着色器811配置曲面细分操作。可编程域着色器817提供对曲面细分输出的后端评估。曲面细分器813在外壳着色器811的方向上进行操作并且包含专用逻辑,所述专用逻辑用于基于粗糙几何模型来生成详细的几何对象集合,所述粗糙几何模型作为输入被提供至图形流水线820。在一些实施例中,如果未使用曲面细分,则可以对曲面细分部件811、813、817进行旁路。

在一些实施例中,完整的几何对象可以由几何着色器819经由被分派至所述执行单元852A至852B的一个或多个线程来处理、或者可以直接行进至剪辑器829。在一些实施例中,几何着色器在整个几何对象(而非顶点或者如图形流水线的先前级中的顶点补片)上进行操作。如果禁用曲面细分,则几何着色器819从顶点着色器807接收输入。在一些实施例中,几何着色器819可由几何着色器程序编程以便在曲面细分单元被禁用时执行几何曲面细分。

在光栅化之前,剪辑器829处理顶点数据。剪辑器829可以是固定功能的剪辑器或者具有剪辑和几何着色器功能的可编程剪辑器。在一些实施例中,渲染输出流水线870中的光栅化器和深度测试部件873分派像素着色器以将几何对象转换成其每像素表示。在一些实施例中,像素着色器逻辑包括在线程执行逻辑850中。在一些实施例中,应用可对光栅化器873进行旁路并且经由流出单元823访问未光栅化的顶点数据。

图形处理器800具有互连总线、互连结构、或某个其他的互连机制,所述互连机制允许数据和消息在所述图形处理器的主要部件之中传递。在一些实施例中,执行单元852A至852B和(多个)相关联的高速缓存851、纹理和媒体采样器854、以及纹理/采样器高速缓存858经由数据端口856进行互连,以便执行存储器访问并且与处理器的渲染输出流水线部件进行通信。在一些实施例中,采样器854、高速缓存851、858以及执行单元852A至852B各自具有单独的存储器访问路径。

在一些实施例中,渲染输出流水线870包含光栅化器和深度测试部件873,所述光栅化器和深度测试部件将基于顶点的对象转换为相关联的基于像素的表示。在一些实施例中,光栅化器逻辑包括用于执行固定功能三角形和线光栅化的窗口器/掩蔽器单元。相关联的渲染高速缓存878和深度高速缓存879在一些实施例中也是可用的。像素操作部件877对数据进行基于像素的操作,然而在一些实例中,与2D操作(例如,利用混合的位块图像传递)相关联的像素操作由2D引擎841执行、或者在显示时间由显示控制器843使用重叠显示平面来代替。在一些实施例中,共享的L3高速缓存875可用于所有的图形部件,从而允许在无需使用主系统存储器的情况下共享数据。

在一些实施例中,图形处理器媒体流水线830包括媒体引擎837和视频前端834。在一些实施例中,视频前端834从命令流转化器803接收流水线命令。在一些实施例中,媒体流水线830包括单独的命令流转化器。在一些实施例中,视频前端834在将所述命令发送至媒体引擎837之前处理媒体命令。在一些实施例中,媒体引擎337包括用于生成线程以用于经由线程分派器831分派至线程执行逻辑850的线程生成功能。

在一些实施例中,图形处理器800包括显示引擎840。在一些实施例中,显示引擎840在处理器800外部并且经由环形互连802、或某个其他互连总线或机构与图形处理器耦合。在一些实施例中,显示引擎840包括2D引擎841和显示控制器843。在一些实施例中,显示引擎840包含能够独立于3D流水线而操作的专用逻辑。在一些实施例中,显示控制器843与显示设备(未示出)耦合,所述显示设备可以是系统集成显示设备(如在膝上型计算机中)、或者经由显示设备连接器附接的外部显示设备。

在一些实施例中,图形流水线820和媒体流水线830可被配置成用于基于多个图形和媒体编程接口执行操作并且并非专用于任何一种应用编程接口(API)。在一些实施例中,图形处理器的驱动器软件将专用于特定图形或媒体库的API调度转换成可由图形处理器处理的命令。在一些实施例中,为来自Khronos Group的开放图形库(OpenGL)和开放计算语言(OpenCL)提供了支持,或者可向OpenGL和D3D两者提供支持。在一些实施例中,可以支持这些库的组合。还可以为开源计算机视觉库(OpenCV)提供支持。如果可做出从未来API的流水线到图形处理器的流水线的映射,则具有兼容3D流水线的未来API也将受到支持。

图形流水线编程

图9A是展示了根据一些实施例的图形处理器命令格式900的框图。图9B是展示了根据实施例的图形处理器命令序列910的框图。图9A中的实线框展示了通常包括在图形命令中的部件,而虚线包括是可选的或者仅包括在所述图形命令的子集中的部件。图9A的示例性图形处理器命令格式900包括用于标识命令的目标客户端902、命令操作代码(操作码)904、以及用于命令的相关数据906的数据字段。一些命令中还包括子操作码905和命令大小908。

在一些实施例中,客户端902限定了处理命令数据的图形设备的客户端单元。在一些实施例中,图形处理器命令解析器检查每个命令的客户端字段以便调整对命令的进一步处理并将命令数据路由至合适的客户端单元。在一些实施例中,图形处理器客户端单元包括存储器接口单元、渲染单元、2D单元、3D单元、和媒体单元。每个客户端单元具有对命令进行处理的相应处理流水线。一旦命令被客户端单元接收到,客户端单元就读取操作码904以及子操作码905(如果存在的话)从而确定要执行的操作。客户端单元使用数据字段906内的信息来执行命令。针对一些命令,期望显式地的命令大小908来限定命令的大小。在一些实施例中,命令解析器基于命令操作码自动地确定命令中的至少一些命令的大小。在一些实施例中,经由双倍字长的倍数对命令进行对齐。

图9B中的流程图示出了示例性图形处理器命令序列910。在一些实施例中,以图形处理器的实施例为特征的数据处理系统的软件或固件使用所示出的命令序列的版本来启动、执行并终止图形操作集合。仅出于示例性目的示出并描述了样本命令序列,如实施例并不限于这些特定命令或者此命令序列。而且,所述命令可以作为一批命令以命令序列被发布,从而使得图形处理器将以至少部分同时的方式处理命令序列。

在一些实施例中,图形处理器命令序列910可以以流水线转储清除命令912开始以便使得任一活跃图形流水线完成针对所述流水线的当前未决命令。在一些实施例中,3D流水线922和媒体流水线924不同时进行操作。执行流水线转储清除以使得活动图形流水线完成任何未决命令。响应于流水线转储清除,用于图形处理器的命令解析器将停止命令处理直到活跃绘画引擎完成未决操作并且使得相关的读高速缓存失效。可选地,渲染高速缓存中被标记为‘脏’的任何数据可以被转储清除到存储器中。在一些实施例中,流水线转储清除命令912可以用于流水线同步或者用在将图形处理器置于低功率状态之前。

在一些实施例中,当命令序列需要图形处理器在流水线之间显式地地切换时,使用流水线选择命令913。在一些实施例中,在发布流水线命令之前在执行情境中仅需要一次流水线选择命令913,除非所述情境要发布针对两条流水线的命令。在一些实施例中,在经由流水线选择命令913的流水线切换之前正好需要流水线转储清除命令912。

在一些实施例中,流水线控制命令914配置用于操作的图形流水线并且用于对3D流水线922和媒体流水线924进行编程。在一些实施例中,流水线控制命令914配置活跃流水线的流水线状态。在一个实施例中,流水线控制命令914用于流水线同步并且用于在处理一批命令之前清除来自活跃流水线内的一个或多个高速缓存存储器中的数据。

在一些实施例中,返回缓冲器状态命令916用于配置返回缓冲器的集合以供相应的流水线写入数据。一些流水线操作需要分配、选择、或配置一个或多个返回缓冲器,在处理过程中所述操作将中间数据写入所述一个或多个返回缓冲器中。在一些实施例中,图形处理器还使用一个或多个返回缓冲器以便存储输出数据并且执行跨线程通信。在一些实施例中,返回缓冲器状态916包括选择返回缓冲器的大小和数量以用于流水线操作集合。

命令序列中的剩余命令基于用于操作的活跃流水线而不同。基于流水线判定920,所述命令序列被定制用于以3D流水线状态930开始的3D流水线922、或者在媒体流水线状态940处开始的媒体流水线924。

用于3D流水线状态930的命令包括用于顶点缓冲器状态、顶点元素状态、常量颜色状态、深度缓冲器状态、以及有待在处理3D图元命令之前配置的其他状态变量的3D状态设置命令。这些命令的值至少部分地基于使用中的特定3D API来确定。在一些实施例中,3D流水线状态930命令还能够选择性地禁用或旁路掉特定流水线元件(如果将不使用那些元件的话)。

在一些实施例中,3D图元932命令用于提交待由3D流水线处理的3D图元。经由3D图元932命令传递给图形处理器的命令和相关联参数将被转发到所述图形流水线中的顶点获取功能。顶点获取功能使用3D图元932命令数据来生成多个顶点数据结构。所述顶点数据结构被存储在一个或多个返回缓冲器中。在一些实施例中,3D图元932命令用于经由顶点着色器对3D图元执行顶点操作。为了处理顶点着色器,3D流水线922将着色器执行线程分派至图形处理器执行单元。

在一些实施例中,经由执行934命令或事件触发3D流水线922。在一些实施例中,寄存器写入触发命令执行。在一些实施例中,经由命令序列中的‘前进’(‘go’)或‘拣选’(‘kick’)命令来触发执行。在一个实施例中,使用流水线同步命令来触发命令执行以便通过图形流水线转储清除命令序列。3D流水线将针对3D图元来执行几何处理。一旦完成操作,则对所产生的几何对象进行光栅化,并且像素引擎对所产生的像素进行着色。对于这些操作,还可以包括用于控制像素着色和像素后端操作的附加命令。

在一些实施例中,当执行媒体操作时,图形处理器命令序列910跟随在媒体流水线924路径之后。一般地,针对媒体流水线924进行编程的具体用途和方式取决于待执行的媒体或计算操作。在媒体解码过程中,特定的媒体解码操作可以被卸载到所述媒体流水线。在一些实施例中,还可对媒体流水线进行旁路,并且可使用由一个或多个通用处理核提供的资源来整体地或部分地执行媒体解码。在一个实施例中,媒体流水线还包括用于通用图形处理器单元(GPGPU)操作的元件,其中,所述图形处理器用于使用计算着色器程序来执行SIMD向量运算,所述计算着色器程序与渲染图形图元不是显式地相关的。

在一些实施例中,以与3D流水线922相似的方式对媒体流水线924进行配置。将一组媒体流水线状态命令940分派或放置到命令队列中,在媒体对象命令942之前。在一些实施例中,媒体流水线状态命令940包括用于配置媒体流水线元件的数据,所述媒体流水线元件将用于处理媒体对象。这包括用于在媒体流水线内配置视频解码和视频编码逻辑的数据,诸如编码或解码格式。在一些实施例中,媒体流水线状态命令940还支持将一个或多个指针用于包含一批状态设置的“间接”状态元件。

在一些实施例中,媒体对象命令942将指针供应至媒体对象以用于由媒体流水线进行处理。媒体对象包括存储器缓冲器,所述存储器缓冲器包含待处理的视频数据。在一些实施例中,在发布媒体对象命令942之前,所有的媒体流水线状态必须是有效的。一旦流水线状态被配置并且媒体对象命令942被排队,则经由执行944命令或等效的执行事件(例如,寄存器写入)来触发媒体流水线924。然后可以通过由3D流水线922或媒体流水线924提供的操作对来自媒体流水线924的输出进行后处理。在一些实施例中,以与媒体操作类似的方式来配置和执行GPGPU操作。

图形软件架构

图10展示了根据一些实施例的数据处理系统1000的示例性图形软件架构。在一些实施例中,软件架构包括3D图形应用1010、操作系统1020、以及至少一个处理器1030。在一些实施例中,处理器1030包括图形处理器1032以及一个或多个通用处理器核1034。图形应用1010和操作系统1020各自在数据处理系统的系统存储器1050中执行。

在一些实施例中,3D图形应用1010包含一个或多个着色器程序,所述一个或多个着色器程序包括着色器指令1012。着色器语言指令可以采用高级着色器语言,诸如高级着色器语言(HLSL)或OpenGL着色器语言(GLSL)。所述应用还包括可执行指令1014,所述可执行指令采用适合用于由通用处理器核1034执行的机器语言。所述应用还包括由顶点数据限定的图形对象1016。

在一些实施例中,操作系统1020是来自微软公司的操作系统、专用UNIX式操作系统、或使用Linux内核变体的开源UNIX式操作系统。操作系统1020可以支持图形API 1022,诸如Direct3DAPI或者OpenGL API。当Direct3D API正在使用时,操作系统1020使用前端着色器编译器1024以将HLSL中的任何着色器指令1012编译成较低级的着色器语言。所述编译可以是即时(JIT)编译,或者所述应用可执行着色器预编译。在一些实施例中,在对3D图形应用1010进行编译的过程中,将高级着色器编译成低级着色器。

在一些实施例中,用户模式图形驱动器1026包含后端着色器编译器1027,所述后端着色器编译器用于将着色器指令1012转换成硬件专用的表示。当在使用OpenGL API时,将采用GLSL高级语言的着色器指令1012传递至用户模式图形驱动器1026以用于编译。在一些实施例中,用户模式图形驱动器1026使用操作系统内核模式功能1028来与内核模式图形驱动器1029进行通信。在一些实施例中,内核模式图形驱动器1029与图形处理器1032进行通信以便分派命令和指令。

IP核实现

至少一个实施例的一个或多个方面可以由存储在机器可读介质上的代表性代码实现,所述机器可读介质表示和/或限定集成电路诸如处理器内的逻辑。例如,机器可读介质可以包括表示处理器内的各个逻辑的指令。当由机器读取时,所述指令可以使机器制造用于执行本文所述的技术的逻辑。这类表示(称为“IP核”)是集成电路的逻辑的可重复使用单元,所述可重复使用单元可以作为对集成电路的结构进行描述的硬件模型而存储在有形、机器可读介质上。可以将硬件模型供应至在制造集成电路的制造机器上加载硬件模型的各消费者或制造设施。可以制造集成电路,从而使得电路执行与本文所述的实施例中的任一实施例相关联地描述的操作。

图11是展示了根据实施例的可以用于制造集成电路以执行操作的IP核开发系统1100的框图。IP核开发系统1100可以用于生成可并入到更大的设计中或用于构建整个集成电路(例如,SOC集成电路)的模块化、可重复使用设计。设计设施1130可采用高级编程语言(例如,C/C++)生成对IP核设计的软件仿真1110。软件仿真1110可用于利用仿真模型1112来设计、测试并验证IP核的行为。仿真模型1112可包括功能仿真、行为仿真、和/或时序仿真。然后可由仿真模型1112来创建或合成寄存器传输级(RTL)设计。RTL设计1115是对硬件寄存器之间的数字信号的流动进行建模的集成电路(包括使用建模的数字信号执行的相关联逻辑)的行为的抽象。除了RTL设计1115之外,还可以创建、设计或合成逻辑电平或晶体管电平处的较低层次设计。由此,初始设计和仿真的具体细节可以发生变化。

可以由设计设施将RTL设计1115或等效方案进一步合成为硬件模型1120,所述硬件模型可以采用硬件描述语言(HDL)或物理设计数据的某种其他表示。可以进一步仿真或测试HDL以验证IP核设计。可使用非易失性存储器1140(例如,硬盘、闪存、或任何非易失性存储介质)来存储IP核设计以用于递送至第3方制造设施1165。可替代地,可以通过有线连接1150或无线连接1160来传输(例如,经由互联网)IP核设计。制造设施1165然后可以制造至少部分地基于IP核设计的集成电路。所制造的集成电路可被配置用于执行根据本文所述的至少一个实施例的操作。

图12是展示了根据实施例的可以使用一个或多个IP核来制造的示例性芯片上系统集成电路1200的框图。示例性集成电路包括一个或多个应用处理器1205(例如,CPU)、至少一个图形处理器1210,并且另外还可以包括图像处理器1215和/或视频处理器1220,其中的任一项都可以是来自相同或多个不同设计设施的模块化IP核。集成电路包括外围或总线逻辑,包括USB控制器1225、UART控制器1230、SPI/SDIO控制器1235和I2S/I2C控制器1240。另外,集成电路还可以包括显示设备1245,所述显示设备耦合至高清晰度多媒体接口(HDMI)控制器1250和移动行业处理器接口(MIPI)显示界面1255中的一项或多项。可以由闪存子系统1260(包括闪存和闪存控制器)来提供存储。可以经由存储器控制器1265来提供存储器接口以访问SDRAM或SRAM存储器设备。另外,一些集成电路还包括嵌入式安全引擎1270。

此外,集成电路1200的处理器中可以包括其他逻辑和电路,包括附加的图形处理器/核、外围接口控制器或通用处理器核。

图13示出了根据一个实施例的采用混合抢占机制(“混合机制”)1310的计算设备1300。计算设备1300(例如,智能可穿戴设备、虚拟现实(VR)设备、头戴式显示器(HMD)、移动计算机、物联网(IoT)设备、膝上型计算机、台式计算机、服务器计算机等)可以与图1的数据处理系统100相同,并且因此为了简明、清晰和易于理解,此后不再进一步讨论或重复上面参考图1-12陈述的许多细节。如所示,在一个实施例中,计算设备1300被示为主控(host)混合机制1310。

在所示的实施例中,混合机制1310被示作由操作系统1306来主控;然而,可以预见,各实施例不限于此。例如,在一个实施例中,快速访问机制1310可以是图形处理单元(“GPU”或“图形处理器”)1314或中央处理单元(“CPU”或“应用处理器”)1312的固件的一部分,在另一实施例中,其由图形驱动器1316主控,如关于图14B所示。在又另一实施例中,快速访问机制1310可以是由GPU 1314或者CPU 1312主控的硬件部件。在又另一的实施例中,快速访问机制1310可以由计算设备1300的多个部件(诸如图形驱动器1316、GPU1314、GPU固件、CPU 1312、CPU固件、操作系统1306等中的一个或多个)部分地和同时地主控。

可以预见并且应当注意,混合机制1310不仅仅适用于具有与GPU 1314相关的任务的工作负载或者可以与其一起使用,并且它同样适用于具有与CPU1312相关的任务的工作负载和/或计算设备1300的任何数量和类型的其他部件或者可以与它们一起使用。然而,为了简明和清楚起见,贯穿本文档,参考与GPU 1314相关的各种任务来描述混合机制1310,但是应注意,各实施例不限于此。例如,与CPU 1312有关的各种任务在通常用于这些任务的寄存器和/或线程的数量方面被认为是相对简单的,诸如,大约16-20个寄存器,4-8个线程等,而与GPU 1314有关的任务可涉及更复杂得多的任务,该更复杂得多的任务涉及大量寄存器和/或线程,例如128个寄存器和数百个线程等,并因此,图形任务可能需要更多地使用并受益于混合机制1310。

贯穿本文档,术语“用户”可以被互换地称为“观看者”、“观察者”、“人”、“个人”、“终端用户”等。应当注意,贯穿本文档,如“图形域”等术语可以与“图形处理单元”、“图形处理器”或简单地与“GPU”互换地引用,并且类似地,“CPU域”或“主机域”可以与“计算机处理单元”、“应用处理器”或简单地与“CPU”互换地引用。

计算设备1300可以包括任何数量和类型的通信设备,比如大型计算系统,诸如服务器计算机、台式计算机等,并且可进一步包括机顶盒(例如,基于互联网的有线电视机顶盒等)、基于全球定位系统(GPS)的设备等。计算设备1300可以包括用作通信设备的移动计算设备,诸如包括智能手机的蜂窝电话、个人数字助理(PDA)、平板计算机、膝上型计算机、电子阅读器、智能电视、电视平台、可穿戴设备(例如,眼镜、手表、手环、智能卡、珠宝、衣物等)、媒体播放器等。例如,在一个实施例中,计算设备1300可以包括采用计算机平台的移动计算设备,所述计算机平台主控将计算设备1300的各种硬件和/或软件部件集成在单个芯片上的诸如芯片上系统(“SoC”或“SOC”)之类的集成电路(“IC”)。

如所示,在一个实施例中,计算设备1300可包括任何数量和类型的硬件和/或软件部件,诸如(但不限于)GPU 1314、图形驱动器(也称为“GPU”驱动器、“图形驱动器逻辑”、“驱动器逻辑”、用户模式驱动器(UMD)、UMD、用户模式驱动器框架(UMDF)、UMDF或简单地称为“驱动器”)1316、CPU 1312、存储器1308、网络设备、驱动器等,以及输入/输出(I/O)源1304,诸如触摸屏、触摸面板、触摸板、虚拟或常规键盘、虚拟或常规鼠标、端口、连接器等。计算设备1300可以包括用作计算设备1306的硬件和/或物理资源与用户之间的接口的操作系统(OS)1306。可以预见,CPU 1312可以包括一个或多个处理器,诸如图1的(多个)处理器102,而GPU 1314可以包括一个或多个图形处理器,诸如图1的(多个)图形处理器108。

应当注意,贯穿本文档,可以互换地使用如“节点”、“计算节点”、“服务器”、“服务器设备”、“云计算机”、“云服务器”、“云服务器计算机”、“机器”、“主机”、“设备”、“计算设备”、“计算机”、“计算系统”等术语。应当进一步注意,贯穿本文档,可以互换地使用如“应用”、“软件应用”、“程序”、“软件程序”、“包”、“软件包”等术语。并且,贯穿本文档,可以互换地使用如“作业”、“输入”、“请求”、“消息”等术语。

可以预见,并且如参考图1-12进一步描述的,如上所述的图形流水线的一些进程以软件实现,而其余的进程以硬件实现。图形流水线可以以图形协处理器设计来实现,其中,CPU 1312被设计为用于与GPU 1314一起工作,所述GPU 1314可以被包括在CPU 1312中或与其共同定位。在一个实施例中,GPU 1314可以采用用于执行与图形渲染有关的常规功能的任何数量和类型的常规软件和硬件逻辑、以及用于执行任何数量和类型的指令(诸如图1的指令121)以执行如贯穿本文档所公开的混合机制1310的各种新颖功能的新颖软件和硬件逻辑。

如上所述,存储器1308可以包括随机存取存储器(RAM),所述RAM包括具有对象信息的应用数据库。存储器控制器中枢(诸如图1的存储器控制器中枢116)可以访问RAM中的数据并且将其转发到GPU 1314以用于图形流水线处理。RAM可以包括双数据速率RAM(DDR RAM)、扩展数据输出RAM(EDO RAM)等。如参照图3所示,CPU 1312与硬件图形流水线交互以共享图形流水线功能。经处理的数据被存储在硬件图形流水线的缓冲器中,并且状态信息被存储在存储器1308中。然后将所得图像传送到诸如显示部件(诸如图3的显示设备320)之类的I/O源1304,以用于图像的显示。可以预见,显示设备可以是用于向用户显示信息的各种类型的显示设备,诸如阴极光线管(CRT)、薄膜晶体管(TFT)、液晶显示器(LCD)、有机发光二极管(OLED)阵列等。

存储器1308可以包括缓冲器(例如,帧缓冲器)的预分配区域;然而,本领域普通技术人员应当理解,各实施例不限于此,并且可以使用较低级图形流水线可访问的任何存储器。计算设备1300可进一步包括如图1所引用的输入/输出(I/O)控制中枢(ICH)130、一个或多个I/O源1304等。

CPU 1312可以包括用于执行指令的一个或多个处理器,以便执行计算系统实现的任何软件例程。指令经常涉及对数据执行的某种操作。数据和指令两者都可以存储在系统存储器1308和任何相关联的高速缓存中。高速缓存通常被设计成具有比系统存储器1308短的等待时间;例如,高速缓存可以被集成到与(多个)处理器相同的(多个)硅芯片上和/或用较快的静态RAM(SRAM)单元进行构造,而系统存储器1308可以用较慢的动态RAM(DRAM)单元进行构造。与系统存储器1308相反,通过倾向于将更频繁使用的指令和数据存储在高速缓存中,改善了计算设备1300的整体性能效率。可以预见,在一些实施例中,GPU 1314可以作为CPU 1312的一部分(诸如物理CPU包的一部分)存在,在这种情况下,存储器1308可以由CPU 1312和GPU 1314共享或保持分开。

系统存储器1308可以对计算设备1300内的其他部件可用。例如,从至计算设备1300的各种接口(例如键盘和鼠标、打印机端口、局域网(LAN)端口、调制解调器端口等)接收到的或从计算机设备1300的内部存储元件(例如,硬盘驱动器)检索到的任何数据(例如,输入图形数据)通常在它们由软件程序的实现中的一个或多个处理器操作之前临时排队进入系统存储器1308。类似地,软件程序确定应通过计算系统接口中的一个从计算设备1300发送到外部实体或存储到内部存储元件中的数据在其被传输或存储之前经常在系统存储器1308中临时排队。

进一步地,例如,诸如图1的ICH 130之类的ICH可以用于确保这样的数据在系统存储器1308与其适当对应的计算系统接口(和内部存储设备,如果计算系统是如此设计的话)之间被适当地传递,并且可以在其自身与所观察到的I/O源/设备1304之间具有双向点对点链路。类似地,诸如图1的MCH 116之类的MCH可以用于管理在CPU 1312和GPU 1314、接口以及可能相对于彼此在时间上接近出现的内部存储元件之中对于系统存储器1308访问的各种竞争请求。

I/O源1304可以包括一个或多个I/O设备,所述一个或多个I/O设备实现为用于向计算设备1300(例如,网络适配器)传送数据和/或传送来自所述计算设备的数据;或者用于计算设备设备1300(例如,硬盘驱动器)内的大规模非易失性存储。包括字母数字及其他键的用户输入设备可用于将信息和命令选择通信至GPU 1314。另一类型的用户输入设备是用于将方向信息和命令选择通信至GPU 1314并控制显示设备上的光标移动的光标控制,诸如鼠标、轨迹球、触摸屏、触摸板或光标方向键。可以采用计算机设备1300的相机和麦克风阵列来观察手势、记录音频和视频并接收和发射视觉命令和音频命令。

计算设备1300可进一步包括(多个)网络接口以提供对网络的访问,网略诸如,LAN、广域网(WAN)、城域网(MAN)、个域网(PAN)、蓝牙、云网络、移动网络(例如,第3代(3G)、第4代(4G)等)、内联网、互联网等。(多个)网络接口可以包括例如具有天线的无线网络接口,所述天线可以表示一个或多个天线。(多个)网络接口还可以包括,例如,经由网络电缆与远程设备通信的有线网络接口,所述网络电缆可以是例如以太网电缆、同轴电缆、光缆、串行电缆或并行电缆。

(多个)网络接口可例如通过符合IEEE 802.11b和/或IEEE 802.11g标准来提供对LAN的访问,并且/或者无线网络接口可以例如通过符合蓝牙标准来提供对个域网的访问。还可以支持其他无线网络接口和/或协议(包括所述标准的先前的以及后续的版本)。除了经由无线LAN标准的通信或替代其,(多个)网络接口可以使用例如以下协议来提供无线通信:时分多址(TDMA)协议、全球移动通信系统(GSM)协议、码分多址(CDMA)协议和/或任何其他类型的无线通信协议。

(多个)网络接口可以包括一个或多个通信接口,诸如,调制解调器、网络接口卡或其他众所周知的接口设备,诸如,用于为了提供通信链路以支持例如LAN或WAN而耦合至以太网、令牌环或其他类型的物理有线或无线附连的那些通信接口。以此方式,计算机系统还可以经由常规的网络基础设施(例如,包括内联网或互联网)耦合至一定数量的外围设备、客户端、控制表面、控制台或服务器。

应当理解,对于某些实施方式,比在上文中所描述的示例更少或更多地配备的系统可以是优选的。因此,取决于众多因素,如价格约束、性能要求、技术改进或其他情况,计算设备1300的配置可以随着实施方式而改变。电子设备或计算机系统1300的示例可以包括(但不限于):移动设备、个人数字助理、移动计算设备、智能电话、蜂窝电话、手持设备、单向寻呼机、双向寻呼机、消息收发设备、计算机、个人计算机(PC)、台式计算机、膝上型计算机、笔记本计算机、手持式计算机、平板计算机、服务器、服务器阵列或服务器场、web服务器、网络服务器、因特网服务器、工作站、小型计算机、大型计算机、超级计算机、网络装置、web装置、分布式计算系统、多处理器系统、基于处理器的系统、消费电子产品、可编程消费电子产品、电视、数字电视、机顶盒、无线接入点、基站、用户站、移动用户中心、无线电网络控制器、路由器、集线器、网关、桥接器、交换机、机器或上述各项的组合。

实施例可以被实施为以下各项中的任何一项或其组合:使用母板互连的一个或多个微芯片或集成电路、硬连线逻辑、由存储器设备存储且由微处理器执行的软件、固件、专用集成电路(ASIC)和/或现场可编程门阵列(FPGA)。作为示例,术语“逻辑”可以包括软件或硬件和/或软件和硬件的组合。

实施例可以被提供为例如计算机程序产品,所述计算机程序产品可以包括其上存储有机器可执行指令的一个或多个机器可读介质,所述机器可执行指令在由一个或多个机器(诸如计算机、计算机网络或其他电子设备)执行时可导致所述一个或多个机器执行根据在本文中所描述的实施例的操作。机器可读介质可以包括但不限于:软盘、光盘、CD-ROM(压缩盘只读存储器)以及磁光盘、ROM、RAM、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)、磁卡或光卡、闪存、或者适用于存储机器可执行指令的其他类型的介质/机器可读介质。

此外,实施例可以作为计算机程序产品被下载,其中,可以经由通信链路(例如,调制解调器和/或网络连接),借助于在载波或其他传播介质中具体化和/或由载波或其他传播介质调制的一个或多个数据信号来将程序从远程计算机(例如,服务器)传输至请求计算机(例如,客户机)。

图14A示出了根据一个实施例的图13的混合抢占机制1310。为了简明起见,此后不再重复或讨论已经参考图1-13所讨论的细节中的许多细节。在一个实施例中,混合机制1310可以包括任何数量和类型的部件,诸如(但不限于):检测/接收逻辑1401;数据收集逻辑(“收集逻辑”)1403;估计计算逻辑(“估计逻辑”)1405;抢占选择逻辑(“选择逻辑”)1407;抢占启动和应用逻辑(“启动/应用逻辑”)1409;水印计时器逻辑(“计时器逻辑”)1411;和通信/兼容性逻辑1413。

计算设备1300进一步被示出为与一个或多个存储库、数据集和/或数据库(诸如,(多个)数据库1430(例如,云存储、非云存储等)包括经编译程序(着色器)数据库)通信,其中,通信可以是直接进行的和/或通过诸如通信介质之类的一或多个网络(例如,云网络、接近度网络、移动网络、内联网、互联网等)而进行的。

诸如GPU 1314之类的现代GPU,具有数百个计算节点,其中每个节点具有其自己的寄存器堆和相关联状态。可以预见,请求任何现代GPU以精细粒度抢占正在运行的任务可能需要保存每个计算节点的上下文、馈送计算节点的流水线以及任何相关联的状态。即使单个计算节点具有小的上下文镜像,但是当乘以大量计算节点时,GPU上下文镜像的大小也可能很大,保存和恢复上下文镜像所花费的时间也可能是大量的。此外,用于保存和恢复上下文镜像的存储器子系统可能不会与计算单元的数量(因此,上下文镜像的大小)成比例地缩放,这可能在通过添加额外的计算节点使得这种GPU变得越来越强大时导致执行细粒度抢占的成本的不必要增加。

降低抢占成本的一种方法是以较粗粒度进行抢占。例如,常规解决方案需要等待所有计算节点完成执行其当前任务,仅需要馈送计算节点的流水线以及任何相关联的状态被保存和存储。当处理执行长期运行任务的计算节点时,这种常规解决方案在等待时间方面尤其昂贵,并且因此,在这些情况下,增加的抢占等待时间可能不提供交互式或响应性用户体验。即使在处理较小上下文镜像时,为了增加功率和效率,额外的计算节点可被添加,尽管额外的计算节点不是免费的,它们产生的成本是相对合理的。

返回参考混合机制1310,实施例提供了一种新颖的混合技术,根据期望或需要,该新颖的混合技术允许智能地收集数据以用于估计细粒度抢占和粗粒度抢占之间的等待时间权衡,如由混合机制1310促进的。在一个实施例中,使用等待时间权衡估计,混合机制1310可以在细粒度抢占(例如在需要提供可接受的用户体验时)和粗粒度抢占(例如在保存相关联的功率和性能时)之间进行选择。根据期望或需要,各实施例提供细粒度抢占和粗粒度选择之间的智能选择。在一个实施例中,等待时间权衡估计可以指代或包括关于时间(诸如,允许完成当前任务而不是终止当前任务可能花费多长时间)、等待时间量(例如,关于继续当前任务与结束当前任务的等待时间量)的估计细节、其他低效率细节和/或类似信息。

当正在执行图形任务(例如,通用GPU(GPGPU)任务)时,需要立即访问GPU 1314,这可意味着可能需要细粒度上下文切换。由于细粒度上下文可能是耗时的,因此允许正在执行的工作组完成执行并执行粗粒度抢占可被视为更加有效。例如,在一个实施例中,如果排出(drain)所有正在运行的工作组所需要或者估计的时间少于执行线程级切换所需要或估计的时间,则通过延迟抢占请求,可增加响应性并且可以降低整体系统功率使用。

在一个实施例中,接收/检测逻辑1401可以用于检测在计算设备1300处要由GPU 1314执行的多个任务的整个工作负荷或者单个工作负荷任务(诸如GPGPU任务)。在检测到图形任务时,可以触发收集逻辑1403收集可用于计算与该任务相关的等待时间或时间估计的任何数量和类型的数据,包括各种细节。例如,收集逻辑1403可以促进对与任务有关的数据的收集,与任务有关的数据诸如(而非限制)允许和/或终止任务的时间、与任务相关的等待时间细节、线程级上下文数据、工作组上下文数据、任务历史、任务性能数据、存储器访问模式、高速缓存数据、预取器数据、计算设备1300的机器配置和/或类似。在一个实施例中,由收集逻辑1403收集的数据可进一步包括(但不限于)以下各项中的一项或多项:一个或多个任务的历史时间估计、一个或多个任务的历史性能、基于一个或多个任务的当前状态或类型的对时间估计的预测、先前工作组级时间估计的平均值、和/或类似信息。

在一个实施例中,一旦收集逻辑1403已经收集了详细数据,则可以触发估计逻辑1405以估计执行线程级上下文保存所需的时间。由于该时间经常是机器配置的属性,因此在一些实施例中,可以离线执行该估计。在一个实施例中,估计逻辑1405可用于测量执行工作组直至完成的时间。由于该时间是正在被执行的工作的属性,因此在一些实施例中,在运行时执行该估计。在一个实施例中,该时间可被用作对各种随后执行的工作组的执行时间的估计。此外,在一个实施例中,估计逻辑1405可以使用所收集的数据来随后计算与任务的线程级执行有关的第一时间估计和/或与任务的工作组级执行有关的第二时间估计。

当接收到针对GPU 1314的抢占请求时,检测/接收逻辑1401检测到该请求,这进而触发估计逻辑1405将用于完成所有当前正在执行的工作组的工作组估计时间与用于完成线程级上下文保存的线程级估计时间进行比较。如果工作组是短期运行的并且期望该工作组在完成线程级上下文保存之前完成其执行,则选择逻辑1407可以以工作组级来抢占GPU 1314。然而,如果工作组长期运行,则选择逻辑1407可以以线程级抢占GPU 1314。一旦选择逻辑1407选择了适当的抢占类型(诸如,细粒度(线程级)抢占或工作组(粗粒度)抢占),则随后可以触发启动/应用逻辑1409以启动和应用所选择的抢占。

可以预见的是,第一执行工作组具有相对较高的机会成为最慢执行的工作组,因为在该第一次执行时,预期高速缓存为空并且存储器预取器不可能推测出任何存储器访问图案。因此,在一个实施例中,代替对第一工作组进行计时,可以使用最近引退的工作组的执行时间和/或任何数量的最近执行的工作组的平均时间。

此外,可以预见,根据GPU架构,工作组可被细分为组成硬件线程、子组等。为了避免与任何工作组的完成和后续计时相关的任何跟踪复杂化,在一个实施例中,收集逻辑1403可用于收集相关数据以跟踪单个线程的执行时间并促进估计逻辑1405将执行时间估计为工作组执行时间估计,例如,如果考虑平均情况,则预期包括工作组的多个硬件线程可以在相似的时间量内完成。

例如,如果过去工作组的执行时间被认为是对未来工作组的执行时间的不良估计,则计时器逻辑1411可以采用水印技术来(从粗粒度抢占)回退到细粒度抢占,诸如,如果当前正在执行的工作组花费比现有估计显著更长的时间来完成的话。以这种方式,在一个实施例中,混合机制1310的计时器逻辑1411可以保证最低服务质量。

可以预见的是,实施例不限于任何特定类型的应用或其对应的任务,例如GPGPU任务,并且实施例可同样适用于任何数量和类型的应用和任务,例如三维(3D)任务。例如,关于3D任务,估计完成3D三角形或像素的时间量,然后将其与执行3D线程级上下文保存的时间量进行比较。此外,在一些实施例中,混合机制1310可以应用于更粗的抢占粒度,例如以GPGPU直接存储器访问(DMA)缓冲器粒度或分派粒度,或者以3D DMA缓冲器或原始粒度。

可以预见,并且如前所述,混合机制1310的部件1401-1413可以被用作软件、硬件或其组合,例如固件。

通信/兼容性逻辑1413可以用于促进计算设备1300与以下各项之间的动态通信和兼容性:任何数量和类型的其他计算设备(诸如,移动计算设备、台式计算机、服务器计算设备等);处理设备或部件(诸如,CPU、GPU等);捕获/感测/检测设备(诸如,捕获/感测部件,包括相机、深度感测相机、相机传感器、RGB传感器、麦克风等);显示设备(诸如,输出部件,包括显示屏、显示区域、显示投影仪等);用户/上下文感知部件和/或标识/验证传感器/设备(诸如,生物特征传感器/检测器、扫描器等);(多个)数据库1430,诸如,存储器或存储设备、数据库和/或数据源(诸如,数据存储设备、硬盘驱动器、固态驱动器、硬盘、存储器卡或设备、存储器电路等);(多个)通信介质,包括通信信道或网络(例如,云网络、互联网、内联网、蜂窝网络、接近度网络,诸如,蓝牙、低功耗蓝牙(BLE)、智能蓝牙、Wi-Fi接近度、射频识别(RFID)、近场通信(NFC)、体域网(BAN)等);无线或有线通信和相关协议(例如,WiMAX、以太网等);连接性和位置管理技术;软件应用/网站(例如,社交和/或商业网络网站等、商业应用、游戏和其他娱乐应用等);以及编程语言等,同时确保与变化的技术、参数、协议、标准等的兼容性。

贯穿本文件,如“逻辑”、“部件”、“模块”、“框架”、“引擎”、“机制”等术语可以互换地引用,并且包括例如软件、硬件、和/或软件和硬件的任何组合(诸如固件)。在一个示例中,“逻辑”可以指代或包括能够与诸如计算设备1300之类的计算设备的操作系统(例如,操作系统1306)、图形驱动器(例如,图形驱动器1316)等中的一个或多个一起工作的软件组件。在另一示例中,“逻辑”可以指代或包括能够与诸如计算设备1300之类计算设备的一个或多个系统硬件元件(诸如应用处理器(例如,CPU 1312)、图形处理器(例如,GPU 1314)等)一起或作为其一部分物理安装的硬件部件。在又另一个实施例中,“逻辑”可以指代或包括能够作为诸如计算设备1300等之类的计算设备的系统固件(诸如应用处理器(例如,CPU 1312)或图形处理器(例如,GPU 1314)之类的固件)的一部分的固件组件。

此外,特定品牌、单词、术语、短语、名称和/或首字母缩略词(诸如,“GPU”、“GPU域”、“GPGPU”、“CPU”、“CPU域”、“图形驱动程序”、“工作负荷”、“应用”、“框架”、“工作单元”、“绘制”、“分派”、“API”、“硬件”、“软件”、“代理”、“图形驱动程序”,“内核模式图形驱动器”、“用户模式驱动器”、“用户模式驱动程序框架”、“混合”、“抢占”、“细粒度”或“线程级”、“粗粒度”或“工作组”、“GPGPU”、“任务”、“软件应用”、“游戏”等)的任何使用不应该被解读成将实施例限制为在本文档外部的产品或文献中携带该标签的软件或设备。

可以预见,任何数量和类型的部件都可以被添加到混合机制1310和/或从其中移除,以促进包括添加、移除、和/或增强某些特征的各个实施例。为了混合机制1310的简明、清楚和易于理解起见,此处未示出或讨论许多标准和/或已知部件,如计算设备的部件。可以预见,如本文所述的实施例不限于任何特定技术、拓扑、系统、架构、和/或标准,并且动态到足以采用和适应任何未来变化。

图14B示出了根据一个实施例的架构布置(“布置”)1480。为了简明起见,此后可以不讨论或重复之前参考图1-14A所讨论的细节中的许多细节。此外,可以预见并且应注意,实施例不限于任何特定架构设置或部件的布置(诸如,布置1480)。

在所示实施例中,混合机制1310被示为由图形驱动器1316主控,而计算设备1300进一步被示为主控GPU 1314、CPU 1312和存储器1308并且与(多个)数据库1430通信。如先前关于图13-14所描述的,实施例不限于特定架构设置或布置,并且类似地,实施例不仅限于或适用于GPU任务(诸如在GPU 1314处执行的任务或由GPU 1314执行的任务),并且它们同样适用于CPU任务(诸如,在CPU 1312处执行的任务或由CPU 1312执行的任务)。

图15A示出了根据一个实施例的用于促进计算设备处的混合抢占的方法1500。方法1500可以由处理逻辑执行,所述处理逻辑可以包括如由图13的混合机制1310促进的硬件(如电路系统、专用逻辑、可编程逻辑等)、软件(如在处理设备上运行的指令)或其组合。为了表示的简明和清晰起见,以线性顺序示出方法1500的进程;然而,可以预见,任何数量的进程可以并行地、异步地或以不同的顺序执行。为了简明起见,此后可以不讨论或重复参考图1-14所讨论的细节中的许多细节。

方法1500在框1501处以启动数据收集阶段开始,该数据收集阶段与要在计算设备的GPU和/或CPU处执行的任务有关。在一个实施例中,此数据收集用于协助与所述任务有关的各种估计,诸如工作组执行时间、线程级执行时间、等待时间估计、时间估计等。在一个实施例中,如果在框1501的数据收集阶段处接收到抢占请求,则终止数据收集阶段,同时在框1503处选择、启动并执行线程级(或细粒度)抢占。

在框1555处,启动并执行执行状态,其中执行状态与由GPU和/或CPU所作的任务执行相关。如果在框1505的执行状态处接收到抢占请求,则在一个实施例中,在框1507处,作出关于针对工作组执行的执行估计(例如,时间估计,等待时间估计)是否大于针对线程级保存执行的执行估计(例如,时间估计,等待时间估计)的判定。如果是,则框1501的数据收集阶段结束,同时在框1503处选择、启动并执行线程级(或细粒度)抢占。如果不是,则框1501的数据收集阶段结束,同时在框1509处选择、启动并执行工作组(或粗粒度)抢占。

图15B示出了根据一个实施例的用于促进计算设备处的混合抢占的方法1550。方法1550可以由处理逻辑执行,所述处理逻辑可以包括如由图13的混合机制1310促进的硬件(如电路系统、专用逻辑、可编程逻辑等)、软件(如在处理设备上运行的指令)或其组合。为了表示的简明和清晰起见,以线性顺序示出方法1550的进程;然而,可以预见,任何数量的进程可以并行地、异步地或以不同的顺序执行。为了简明起见,此后可以不讨论或重复参考图1-15A所讨论的细节中的许多细节。

方法1550在框1551处以启动数据收集阶段开始,该数据收集阶段与在计算设备处的GPU和/或CPU处正在执行的任务有关。在一个实施例中,此数据收集用于协助与所述任务有关的各种估计,诸如工作组执行时间、线程级执行时间、等待时间估计、时间估计等。在一个实施例中,如果在框1551的数据收集阶段处接收到抢占请求,则框1551的数据收集阶段结束,同时在框1553处选择、启动并执行线程级(或细粒度)抢占。

在框1555处,启动并执行执行状态,其中执行状态与由GPU和/或CPU的任务执行相关。如果在框1555的执行状态处接收到抢占请求,则在一个实施例中,在框1559处,作出关于针对工作组执行的执行估计(例如,时间估计,等待时间估计)是否大于针对线程级保存执行的执行估计(例如,时间估计,等待时间估计)的判定。如果是,则框1551的数据搜集阶段结束,同时在框1553处选择、启动并执行线程级(或细粒度)抢占。

如果不是,诸如,工作组执行估计小于线程级保存估计,但是,例如,该估计是不可靠或者不可用的,则在一个实施例中,在框1561处,水印计时器可被设置成允许等待线程组的执行完成,其中,如果工作组执行估计结果糟糕的话,则该水印计时器用于保证最低服务质量。在一个实施例中,虽然水印计时器被设置,但是可在框1557处获得新的或精细化的(refined)估计,诸如,连续地、周期性地、按需要地、和/或当出现事件时(诸如,当感测到需要新的估计时等)重新计算或者重新估计新的或者精细化的估计。

由于水印计时器可被设置达特定时间量,因此,如果在没有获得精细化的或者可接受的估计的情况下水印计时器期满,则在一个实施例中,框1551的数据收集阶段结束,同时在框1553处选择、启动并执行线程级(或者细粒度)抢占。然而,如果及时获得并应用了精细化估计,诸如,在水印计时器的终止之前重新计算和检测到精细化估计,则在一个实施例中,框1551处的数据收集阶段结束,同时在框1563处选择、启动并执行工作组(或者粗粒度)抢占。

对“一个实施例”、“实施例”、“示例实施例”、“各个实施例”等的引用指示:如此描述的(多个)实施例可以包括特定特征、结构或特性,但并非每一个实施例必定包括这些特定的特征、结构或特性。此外,一些实施例可具有针对其他实施例所描述的特征的一些、全部、或不具有任何所述特征。

在以上说明书中,已经参照其特定示例性实施例描述了各实施例。然而,在不偏离所附权利要求中阐述的实施例的更广泛精神和范围的情况下,将显然的是可对其进行各种修改和改变。因此,说明书和附图将以说明性而非限制性的含义来看待。

在以下说明书和权利要求书中,可以使用术语“耦合”及其衍生词。“耦合”用于指示两个或更多个元件彼此协作或相互作用,但是它们之间可以具有或可不具有中间物理或电学部件。

如权利要求书中所使用的,除非另有说明,否则使用序数形容词“第一”、“第二”、“第三”等来描述公共元件仅指示类似元件的不同实例被提及,并不旨在暗示如此描述的元素必须在给定的序列中,无论是时间、空间、等级或以任何其他方式。

以下条款和/或示例涉及进一步实施例或示例。可以在一个或多个实施例中的任何地方使用示例中的细节。可以以各种方式将不同的实施例或示例的各种特征与所包括的一些特征以及被排除的其他特征组合以适应各种不同的应用。示例可以包括主题,诸如:方法;用于执行所述方法的动作的装置;至少一种包括指令的机器可读介质,所述指令当由机器执行时使所述机器执行所述方法的动作;或用于根据本文中所描述的实施例和示例促进混合通信的设备或系统。

一些实施例涉及示例1,示例1包括一种设备,所述设备用于促进针对计算环境中的任务执行的执行感知混合抢占,所述设备包括:检测/接收逻辑,用于检测由计算设备主控的软件应用,其中,所述软件应用用于促进能够由计算设备的图形处理器执行的一个或多个任务;抢占选择逻辑,用于基于分别与处于线程级执行和工作组级执行的一个或多个任务相关的第一时间估计和第二时间估计的比较来选择细粒度抢占或粗粒度抢占中的至少一个;以及抢占启动和应用逻辑,用于启动细粒度抢占和粗粒度抢占中所选择的抢占的执行。

示例2包括示例1的主题,进一步包括估计计算逻辑,用于计算与一个或多个任务的线程级执行相关的第一时间估计,以及与一个或多个任务的工作组级执行相关的第二时间估计。

示例3包括示例1的主题,进一步包括数据收集逻辑,用于收集与一个或多个任务相关的数据,其中基于收集的数据计算所述第一和第二时间估计,其中收集的数据包括以下各项中的一个或多个:一个或多个任务的历史时间估计、一个或多个任务的历史性能、基于一个或多个任务的当前状态或类型的时间估计的预测、以及先前工作组级时间估计的平均值。

示例4包括示例1的主题,其中,所述一个或多个任务包括以下各项中的一个或多个:通用图形处理单元(GPGPU)任务、GPGPU直接存储器访问(DMA)缓冲器任务、三维(3D)三角形或像素任务、以及3D DMA缓冲器任务,其中所述一个或多个任务涉及分派粒度或基元粒度。

示例5包括示例1的主题,其中,如果在到达执行状态之前接收到抢占请求,则抢占选择逻辑用于选择细粒度抢占,其中,所述抢占请求由检测/接收逻辑接收。

示例6包括示例5的主题,其中抢占选择逻辑进一步用于,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计大于与线程级执行相关的第一时间估计,则选择细粒度抢占。

示例7包括示例1的主题,其中抢占选择逻辑进一步用于,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计小于与线程级执行相关的第一时间估计,则选择粗粒度抢占。

示例8包括示例1的主题,进一步包括水印时间逻辑,用于设置计时器以暂停工作组级执行以等待接收一组精细化的第二时间估计,其中,所述抢占选择逻辑用于,如果计时器在接收到精细的第二时间估计组之前期满,则选择细粒度抢占,其中所述抢占选择逻辑进一步用于基于精细化的第二时间估计组选择粗粒度抢占。

一些实施例涉及示例9,示例9包括一种用于针对计算环境中的任务执行的执行感知混合抢占的方法,所述方法包括:检测由计算设备主控的软件应用,其中,所述软件应用用于促进能够由计算设备的图形处理器执行的一个或多个任务;基于分别与处于线程级执行和工作组级执行的一个或多个任务相关的第一时间估计和第二时间估计的比较来选择细粒度抢占或粗粒度抢占中的至少一个;以及启动细粒度抢占和粗粒度抢占中所选择的抢占的执行。

示例10包括示例9的主题,进一步包括计算与一个或多个任务的线程级执行相关的第一时间估计,以及与一个或多个任务的工作组级执行相关的第二时间估计。

示例11包括示例9的主题,进一步包括收集与一个或多个任务相关的数据,其中基于收集的数据计算所述第一和第二时间估计,其中收集的数据包括以下各项中的一个或多个:一个或多个任务的历史时间估计、一个或多个任务的历史性能、基于一个或多个任务的当前状态或类型的时间估计的预测、以及先前工作组级时间估计的平均值。

示例12包括示例9的主题,其中,所述一个或多个任务包括以下各项中的一个或多个:通用图形处理单元(GPGPU)任务、GPGPU直接存储器访问(DMA)缓冲器任务、三维(3D)三角形或像素任务、以及3D DMA缓冲器任务,其中所述一个或多个任务涉及分派粒度或基元粒度。

示例13包括示例9的主题,进一步包括:如果在到达执行状态之前接收到抢占请求,则选择细粒度抢占。

示例14包括示例13的主题,进一步包括,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计大于与线程级执行相关的第一时间估计,则选择细粒度抢占。

示例15包括示例9的主题,进一步包括,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计小于与线程级执行相关的第一时间估计,则选择粗粒度抢占。

示例16包括示例9的主题,进一步包括:设置计时器以暂停工作组级执行以等待接收一组精细化的第二时间估计;如果计时器在接收到精细化的第二时间估计组之前期满,则选择细粒度抢占;以及基于精细化的第二时间估计组选择粗粒度抢占。

一些实施例涉及示例17,示例17包括一种系统,所述系统包括具有指令的存储介质、以及处理器,所述处理器用于执行所述指令以执行或促进用于执行一个或多个操作的机制,所述操作包括:检测由计算设备主控的软件应用,其中,所述软件应用用于促进能够由计算设备的图形处理器执行的一个或多个任务;基于分别与处于线程级执行和工作组级执行的一个或多个任务相关的第一时间估计和第二时间估计的比较来选择细粒度抢占或粗粒度抢占中的至少一个;以及启动细粒度抢占和粗粒度抢占中所选择的抢占的执行。

示例18包括示例17的主题,其中所述操作包括计算与一个或多个任务的线程级执行相关的第一时间估计,以及与一个或多个任务的工作组级执行相关的第二时间估计。

示例19包括示例17的主题,其中,所述操作包括收集与一个或多个任务相关的数据,其中基于收集的数据计算所述第一和第二时间估计,其中收集的数据包括以下各项中的一个或多个:一个或多个任务的历史时间估计、一个或多个任务的历史性能、基于一个或多个任务的当前状态或类型的时间估计的预测、以及先前工作组级时间估计的平均值。

示例20包括示例17的主题,其中,所述一个或多个任务包括以下各项中的一个或多个:通用图形处理单元(GPGPU)任务、GPGPU直接存储器访问(DMA)缓冲器任务、三维(3D)三角形或像素任务、以及3D DMA缓冲器任务,其中所述一个或多个任务涉及分派粒度或基元粒度。

示例21包括示例17的主题,其中所述操作包括:如果在到达执行状态之前接收到抢占请求,则选择细粒度抢占。

示例22包括示例21的主题,其中所述操作包括,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计大于与线程级执行相关的第一时间估计,则选择细粒度抢占。

示例23包括示例17的主题,其中所述操作包括,如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计小于与线程级执行相关的第一时间估计,则选择粗粒度抢占。

示例24包括示例17的主题,其中所述操作包括:设置计时器以暂停工作组级执行以等待接收一组精细化的第二时间估计;如果计时器在接收到精细化的第二时间估计组之前期满,则选择细粒度抢占;以及基于精细化的第二时间估计组选择粗粒度抢占。

一些实施例涉及示例25,示例25包括一种设备,所述设备包括:用于检测由计算设备主控的软件应用的装置,其中,所述软件应用用于促进能够由计算设备的图形处理器执行的一个或多个任务;用于基于分别与处于线程级执行和工作组级执行的一个或多个任务相关的第一时间估计和第二时间估计的比较来选择细粒度抢占或粗粒度抢占中的至少一个的装置;以及用于启动细粒度抢占和粗粒度抢占中所选择的抢占的执行装置。

示例26包括示例25的主题,其中所述操作包括计算与一个或多个任务的线程级执行相关的第一时间估计,以及与一个或多个任务的工作组级执行相关的第二时间估计。

示例27包括示例25的主题,其中,所述操作包括收集与一个或多个任务相关的数据,其中基于收集的数据计算所述第一和第二时间估计,其中收集的数据包括以下各项中的一个或多个:一个或多个任务的历史时间估计、一个或多个任务的历史性能、基于一个或多个任务的当前状态或类型的时间估计的预测、以及先前工作组级时间估计的平均值。

示例28包括示例25的主题,其中,所述一个或多个任务包括以下各项中的一个或多个:通用图形处理单元(GPGPU)任务、GPGPU直接存储器访问(DMA)缓冲器任务、三维(3D)三角形或像素任务、以及3D DMA缓冲器任务,其中所述一个或多个任务涉及分派粒度或基元粒度。

示例29包括示例25的主题,其中所述操作包括用于如果在到达执行状态之前接收到抢占请求则选择细粒度抢占的装置。

示例30包括示例29的主题,其中所述操作包括用于如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计大于与线程级执行相关的第一时间估计则选择细粒度抢占的装置。

示例31包括示例25的主题,其中所述操作包括用于如果在执行状态下接收到抢占请求并且与工作组级执行相关的第二时间估计小于与线程级执行相关的第一时间估计则选择粗粒度抢占的装置。

示例32包括示例25的主题,其中所述操作包括:用于设置计时器以暂停工作组级执行以等待接收一组精细化的第二时间估计的装置;用于如果计时器在接收到精细化的第二时间估计组之前期满则选择细粒度抢占的装置;以及用于基于精细化的第二时间估计组选择粗粒度抢占的装置。

示例33包括至少一种非瞬态或有形的机器可读介质,所述机器可读介质包括多个指令,所述多个指令当在计算设备上被执行时用于实现或执行权利要求或示例9-16中任一项所述的方法。

示例34包括至少一种机器可读介质,所述机器可读介质包括多个指令,所述指令当在计算设备上被执行时,用于实现或执行如权利要求或示例9-16中任一项所述的方法。

示例35包括一种系统,所述系统包括用于实现或执行如权利要求或示例9-16中任一项所述的方法的机制。

示例36包括一种设备,所述设备包括用于执行如权利要求或示例9-16中任一项所述的方法的装置。

示例37包括一种计算设备,所述计算设备被安排用于实现或执行如权利要求或示例9-16中任一项所述的方法。

示例38包括一种通信设备,所述通信设备被安排用于实现或执行如权利要求或示例9-16中任一项所述的方法。

示例39包括至少一种机器可读介质,所述机器可读介质包括多个指令,所述多个指令当在计算设备上被执行时用于实现或执行任一前述权利要求中所述的方法或实现任一前述权利要求中所述的设备。

示例40包括至少一种非瞬态或有形的机器可读介质,所述机器可读介质包括多个指令,所述多个指令当在计算设备上被执行时用于实现或执行任一前述权利要求中所述的方法或实现任一前述权利要求中所述的设备。

示例41包括一种系统,所述系统包括用于实现或执行任一前述权利要求中所述的方法或实现任一前述权利要求中所述的设备的机制。

示例42包括一种设备,所述设备包括用于执行任一前述权利要求中所述的方法的装置。

示例43包括一种计算设备,所述计算设备被安排用于实现或执行任一前述权利要求中所述的方法或实现任一前述权利要求中所述的设备。

示例44包括一种通信设备,所述通信设备被安排用于实现或执行任一前述权利要求中所述的方法或实现任一前述权利要求中所述的设备。

附图以及前述描述给出了诸实施例的示例。本领域技术人员将理解,所描述的元件中的一个或多个可以合并成单个功能元件。或者,某些元件可以被拆分成多个功能元件。可以将来自一个实施例的元件添加到另一实施例中。例如,本文中所描述的过程的顺序可以改变,并且不限于本文中所描述的方式。此外,任何流程图的动作都不需要以所示的顺序来实现;也不一定需要执行所有这些动作。此外,不依赖于其他动作的那些动作也可以与其他动作并行地执行。各实施例的范围绝非由这些特定示例限制。众多变体(无论是否在说明书中显式地给出)都是可能的,这些变体诸如,结构、尺度以及材料的使用方面的差异。诸实施例的范围至少与由所附权利要求书给出的范围一样广泛。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1