数据初始化技术
1.优先权声明和相关申请的交叉引用本技术涉及并根据35 u.s.c.119(e)要求由abhishek appu等人于2019年3月15日提交的题为graphics processing的美国临时申请62/819337(代理人案号ac0271
‑
z)、由lakshminarayanan striramassarma等人于2019年3月15日提交的题为graphics data processing的美国临时申请62/819435(代理人案号ac0285
‑
z)、以及由subramaniam maiyuran等人于2019年3月15日提交的题为systems and methods for partitioning cache to reduce cache access latency的美国临时申请62/819361(代理人案号ac0286
‑
z)的权益和优先权,所有内容通过引用并入本文中。
技术领域
2.本公开一般涉及数据处理,并且更特定地涉及经由通用图形处理单元的数据处理。
背景技术:
3.当前并行图形数据处理包括被开发成对图形数据执行特定操作的系统和方法,所述特定操作诸如例如线性内插(linear interpolation)、曲面细分(tessellation)、栅格化(rasterization)、纹理映射(texture mapping)、深度测试等。传统上,图形处理器使用固定功能计算单元来处理图形数据;然而最近,已使图形处理器的部分可编程,从而使此类处理器能够支持用于处理顶点数据和片段数据的更广泛种类的操作。
4.为了进一步提高性能,图形处理器通常实现诸如流水线化(pipelining)的处理技术,其试图遍及图形流水线的不同部分并行处理尽可能多的图形数据。具有单指令多线程(simt)架构的并行图形处理器被设计成最大化图形流水线中的并行处理量。在simt架构中,并行线程的群组试图尽可能经常地一起同步执行程序指令以提高处理效率。对于simt架构的软件和硬件的总体概述可在shane cook,cuda programming的第三章第37
‑
51页(2013)中找到。
附图说明
5.为了可详细地理解本实施例的上述特征所采用的方式,可通过参考实施例来得到对上文简要概述的实施例的更特定描述,所述实施例中的一些在附图中示出。然而,要注意,附图仅示出了典型的实施例,并且因此不应被认为是对其范围的限制。
6.图1是示出被配置成实现本文中描述的实施例的一个或多个方面的计算机系统的框图;图2a
‑
2d示出并行处理器组件;图3a
‑
3c是图形多处理器和基于多处理器的gpu的框图;图4a
‑
4f示出了示例性架构,其中多个gpu通信地耦合到多个多核处理器;图5示出了图形处理流水线;
图6示出了机器学习软件堆栈;图7示出了通用图形处理单元;图8示出了多gpu计算系统;图9a
‑
9b示出了示例性深度神经网络的层;图10示出了示例性递归神经网络;图11示出了深度神经网络的训练和部署;图12是示出分布式学习的框图;图13示出了适合于使用经训练的模型来执行推理的示例性推理片上系统(soc);图14是处理系统的框图;图15a
‑
15c示出了计算系统和图形处理器;图16a
‑
16c示出了另外的图形处理器和计算加速器架构的框图;图17是图形处理器的图形处理引擎的框图;图18a
‑
18b示出了包括在图形处理器核中采用的处理元件的阵列的线程执行逻辑;图19示出了另外的执行单元;图20是示出图形处理器指令格式的框图;图21是另外的图形处理器架构的框图;图22a
‑
22b示出了图形处理器命令格式和命令序列;图23示出了用于数据处理系统的示例性图形软件架构;图24a是示出ip核开发系统的框图;图24b示出了集成电路封装组装件的截面侧视图;图24c示出了包括连接到衬底(例如,基础管芯)的硬件逻辑小芯片的多个单元的封装组装件;图24d示出了包括可互换小芯片的封装组装件;图25是示出示例性片上系统集成电路的框图;图26a
‑
26b是示出供在soc内使用的示例性图形处理器的框图;图27
‑
28是示出根据实施例的实现压缩技术的方法中的操作的流程图;图28是根据实施例的适于实现用于存储器控制器的随机数生成器的处理环境的示意框图;图29是示出根据实施例的实现压缩技术的方法中的操作的流程图;图30是根据实施例的适于实现用于存储器控制器的随机数生成器的处理环境的示意框图;以及图31是根据实施例的用于生成随机值的指令的操作流程的示意图。
具体实施方式
7.图形处理单元(gpu)通信地耦合到主机/处理器核以加速例如图形操作、机器学习操作、模式分析操作和/或各种通用gpu(gpgpu)功能。gpu可通过总线或另一互连(例如,高速互连,诸如pcie或nvlink)通信地耦合到主机处理器/核。备选地,gpu可与核集成在相同封装或芯片上,并且通过内部处理器总线/互连(即,在封装或芯片内部)通信地耦合到核。
不管连接gpu所采用的方式如何,处理器核可以以工作描述符中所包含的命令/指令的序列的形式将工作分配给gpu。gpu接着将专用电路系统/逻辑用于高效地处理这些命令/指令。
8.在以下描述中,阐述了许多特定细节以提供更透彻的理解。然而,对于本领域技术人员来说将明显的是,可在没有这些特定细节中的一个或多个的情况下实践本文中描述的实施例。在其它情况下,尚未描述公知的特征,以免模糊本实施例的细节。
9.系统概述图1是框图,其示出配置成实现本文中描述的实施例的一个或多个方面的计算系统100。计算系统100包括处理子系统101,所述处理子系统101具有一个或多个处理器102和系统存储器104,所述一个或多个处理器102与所述系统存储器104经由可包括存储器集线器(hub)105的互连路径来通信。存储器集线器105可以是芯片集组件内的单独组件,或可集成在所述一个或多个处理器102内。存储器集线器105经由通信链路106与i/o子系统111耦合。i/o子系统111包括i/o集线器107,所述i/o集线器107可使得计算系统100能够从一个或多个输入装置108接收输入。另外,i/o集线器107可使得显示控制器能够将输出提供给一个或多个显示装置110a,所述显示控制器可被包括在所述一个或多个处理器102中。在一个实施例中,与i/o集线器107耦合的所述一个或多个显示装置110a可包括局部、内部或嵌入式显示装置。
10.处理子系统101例如包括一个或多个并行处理器112,所述并行处理器112经由总线或其它通信链路113耦合到存储器集线器105。通信链路113可以是任何数量的基于标准的通信链路技术或协议之一(诸如但不限于,pci express),或可以是供应商特定的通信接口或通信组构(fabric)。所述一个或多个并行处理器112可形成计算上集中的并行或向量处理系统,所述系统可包括大量处理核和/或处理集群(诸如,集成众核(mic)处理器)。例如,所述一个或多个并行处理器112可形成图形处理子系统,所述图形处理子系统可将像素输出到经由i/o集线器107耦合的一个或多个显示装置110a之一。所述一个或多个并行处理器112还可包括显示控制器和显示器接口(未示出)以能够实现与一个或多个显示装置110b的直接连接。
11.在i/o子系统111内,系统存储单元114可连接到i/o集线器107以提供用于计算系统100的存储机制。i/o开关116可用于提供接口机制以能够实现i/o集线器107与其它组件(诸如,可集成到平台中的网络适配器118和/或无线网络适配器119,以及可经由一个或多个附加(add
‑
in)装置120添加的各种其它装置)之间的连接。(一个或多个)附加装置120还可包括例如一个或多个外部图形处理器装置和/或计算加速器。网络适配器118可以是以太网适配器或另一有线网络适配器。无线网络适配器119可包括以下项中的一项或多项:wi
‑
fi、蓝牙、近场通信(nfc)、或包括一个或多个无线无线电装置(wireless radio)的其它网络装置。
12.计算系统100可包括未明确示出的其它组件,包括usb或其它端口连接件、光学存储驱动器、视频捕获装置、和诸如此类,它们也可连接到i/o集线器107。将图1中的各种组件互连的通信路径可使用任何合适的协议来实现,诸如基于pci(外设组件互连)的协议(例如,pci
‑
express)或任何其它总线或点对点通信接口和/或(一个或多个)协议,诸如nv
‑
link高速互连、或本领域中已知的互连协议。
13.所述一个或多个并行处理器112可合并针对图形和视频处理进行优化的电路系统
(包括例如,视频输出电路系统),并且构成图形处理单元(gpu)。备选地或附加地,所述一个或多个并行处理器112可合并针对通用处理进行优化的电路系统,同时保持本文中更详细描述的底层计算架构。计算系统100的组件可与一个或多个其它系统元件一起集成在单个集成电路上。例如,所述一个或多个并行处理器112、存储器集线器105、(一个或多个)处理器102和i/o集线器107可集成到片上系统(soc)集成电路中。备选地,计算系统100的组件可集成到单个封装中以形成封装中系统(sip)配置。在一个实施例中,计算系统100的组件的至少一部分可集成到多芯片模块(mcm)中,所述mcm可与其它多芯片模块一起互连到模块化计算系统中。
14.将认识到的是,本文中示出的计算系统100是说明性的,并且变化和修改是有可能的。可按期望修改连接拓扑,包括桥接器的数量和布置、(一个或多个)处理器102的数量和(一个或多个)并行处理器112的数量。例如,系统存储器104可直接而非通过桥接器而被连接到(一个或多个)处理器102,而其它装置经由存储器集线器105与系统存储器104和(一个或多个)处理器102通信。在其它备选拓扑中,(一个或多个)并行处理器112连接到i/o集线器107或直接连接到所述一个或多个处理器102之一,而非连接到存储器集线器105。在其它实施例中,i/o集线器107和存储器集线器105可集成到单个芯片中。还可能的是经由多个插口(socket)附连的两组或更多组处理器102,它们可与(一个或多个)并行处理器112的两个或更多个实例耦合。
15.本文中示出的特定组件中的一些是可选的,并且可不被包括在计算系统100的所有实现中。例如,可支持任何数量的附加卡或外设,或可消除一些组件。此外,针对与图1中示出的那些组件类似的组件,一些架构可使用不同的术语。例如,在一些架构中,存储器集线器105可称为北桥(northbridge),而i/o集线器107可称为南桥(southbridge)。
16.图2a示出了并行处理器200。并行处理器200可以是如本文中描述的gpu、gpgpu等。并行处理器200的各种组件可使用一个或多个集成电路装置(诸如可编程处理器、专用集成电路(asic)或现场可编程门阵列(fpga))来实现。所示出的并行处理器200可以是图1中所示的(一个或多个)并行处理器112或图1中所示的(一个或多个)并行处理器112中的一个。
17.并行处理器200包括并行处理单元202。所述并行处理单元包括i/o单元204,所述i/o单元204能够实现与其它装置(包括并行处理单元202的其它实例)的通信。i/o单元204可直接连接到其它装置。例如,i/o单元204经由使用集线器或开关接口(诸如,存储器集线器105)来与其它装置连接。存储器集线器105与i/o单元204之间的连接形成通信链路113。在并行处理单元202内,i/o单元204与主机接口206和存储器交叉开关(memory crossbar)216连接,其中,主机接口206接收针对执行处理操作的命令,并且存储器交叉开关216接收针对执行存储器操作的命令。
18.当主机接口206经由i/o单元204接收命令缓冲器时,主机接口206可将用于执行那些命令的工作操作导引至前端208。在一个实施例中,前端208与调度器210耦合,该调度器210配置成将命令或其它工作项分布至处理集群阵列212。调度器210确保在任务被分布至处理集群阵列212的处理集群之前,处理集群阵列212被适当地配置且处于有效状态。调度器210可经由微控制器上执行的固件逻辑来实现。微控制器实现的调度器210可配置成以粗糙粒度和精细粒度来执行复杂的调度和工作分布操作,从而能够实现处理阵列212上执行的线程的上下文切换和快速抢占(rapid preemption)。优选地,主机软件可经由多个图形
处理门铃(doorbell)之一来检验工作负荷在处理阵列212上调度。随后工作负荷可由调度器微控制器内的调度器210逻辑来跨处理阵列212自动地分布。
19.处理集群阵列212可包括多达“n”个处理集群(例如,集群214a、集群214b、直到集群214n)。处理集群阵列212的每一个集群214a
‑
214n都可执行大数量的并发线程。调度器210可使用各种调度和/或工作分布算法将工作分配给处理集群阵列212的集群214a
‑
214n,这可取决于针对每种类型的程序或计算而产生的工作负荷而变化。调度可由调度器210动态地处置,或者可在配置用于由处理集群阵列212执行的程序逻辑的编译期间部分地由编译器逻辑进行辅助。可选地,可将处理集群阵列212的不同集群214a
‑
214n分配用于处理不同类型的程序,或用于执行不同类型的计算。
20.可将处理集群阵列212配置成执行各种类型的并行处理操作。例如,将集群阵列212配置成执行通用并行计算操作。例如,处理集群阵列212可包括用于执行处理任务的逻辑,所述处理任务包括过滤视频和/或音频数据、执行建模操作(包括物理操作)、以及执行数据变换。
21.处理集群阵列212配置成执行并行的图形处理操作。在其中并行处理器200配置成执行图形处理操作的这样的实施例中,处理集群阵列212可包括用于支持执行此类图形处理操作的附加逻辑,其包括但不限于用于执行纹理操作的纹理采样逻辑、以及曲面细分逻辑和其它顶点处理逻辑。另外,处理集群阵列212可配置成执行图形处理相关的着色器(shader)程序,诸如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。并行处理单元202可经由i/o单元204来转移来自系统存储器的数据以便处理。在处理期间,可将所转移的数据在处理期间存储到芯片上存储器(例如,并行处理器存储器222),然后将其写回到系统存储器。
22.在其中并行处理单元202用于执行图形处理的实施例中,调度器210可配置成将处理工作负荷划分成近似相等大小的任务,以更好地能够实现将图形处理操作分布到处理集群阵列212的多个集群214a
‑
214n。在这些实施例中的一些中,部分处理集群阵列212可配置成执行不同类型的处理。例如,第一部分可配置成执行顶点着色和拓扑生成,第二部分可配置成执行曲面细分和几何着色,并且第三部分可配置成执行像素着色或其它屏幕空间操作,以产生用于显示的渲染图像。由集群214a
‑
214n中的一个或多个所产生的中间数据可存储在缓冲器中以允许所述中间数据在集群214a
‑
214n之间传送以便进一步处理。
23.在操作期间,处理集群阵列212可经由调度器210来接收待执行的处理任务,所述调度器从前端208接收定义处理任务的命令。针对图形处理操作,处理任务可包括定义要如何处理数据(例如,要执行什么程序)的命令和状态参数以及待处理的数据的索引,例如,表面(补片(patch))数据、图元数据(primitive data)、顶点数据和/或像素数据的索引。调度器210可配置成提取(fetch)与任务相对应的索引,或可从前端208接收索引。前端208可配置成确保在发起由进入的命令缓冲器(例如,批量缓冲器、推动缓冲器等)所指定的工作负荷之前处理集群阵列212配置成有效状态。
24.并行处理单元202的一个或多个实例中的每个都可与并行处理器存储器222耦合。并行处理器存储器222可经由存储器交叉开关216来访问,存储器交叉开关216可从处理集群阵列212以及i/o单元204接收存储器请求。存储器交叉开关216可经由存储器接口218访问并行处理器存储器222。存储器接口218可包括多个分区单元(例如,分区单元220a、分区
单元220b、直到分区单元220n),其可各自耦合到并行处理器存储器222的一部分(例如,存储器单元)。可将分区单元220a
‑
220n的数量配置成等于存储器单元的数量,使得第一分区单元220a具有对应的第一存储器单元224a,第二分区单元220b具有对应的存储器单元224b,并且第n分区单元220n具有对应的第n存储器单元224n。在其它实施例中,分区单元220a
‑
220n的数量可不等于存储器装置的数量。
25.存储器单元224a
‑
224n可包括各种类型的存储器装置,包括动态随机存取存储器(dram)或图形随机存取存储器,诸如,同步图形随机存取存储器(sgram),包括图形双数据速率(gddr)存储器。可选地,存储器单元224a
‑
224n还可包括3d堆叠式存储器,包括但不限于高带宽存储器(hbm)。本领域技术人员将认识到,存储器单元224a
‑
224n的特定实现可变化,并且可选自各种常规设计之一。渲染目标,诸如帧缓冲器或纹理映射(texture map),可跨存储器单元224a
‑
224n存储,从而允许分区单元220a
‑
220n并行写入每个渲染目标的部分以高效地使用并行处理器存储器222的可用带宽。在一些实施例中,可排除并行处理器存储器222的本地实例,以有利于利用系统存储器连同本地高速缓冲存储器的统一存储器设计。
26.可选地,处理集群阵列212的集群214a
‑
214n中的任何一个都具有处理将被写入到并行处理器存储器222内的存储器单元224a
‑
224n中的任何的数据的能力。可将存储器交叉开关216配置成将每个集群214a
‑
214n的输出转移到任何分区单元220a
‑
220n或另一集群214a
‑
214n,其可对输出执行附加处理操作。每个集群214a
‑
214n都可通过存储器交叉开关216与存储器接口218通信,以从各种外部存储器装置读取或写入到各种外部存储器装置。在具有存储器交叉开关216的实施例中的一个中,存储器交叉开关216具有与存储器接口218的连接以与i/o单元204通信,以及与并行处理器存储器222的本地实例的连接,从而使不同处理集群214a
‑
214n内的处理单元能够与系统存储器或对于并行处理单元202不是本地的其它存储器通信。通常,存储器交叉开关216可例如能够使用虚拟通道以分离集群214a
‑
214n与分区单元220a
‑
220n之间的业务流。
27.虽然在并行处理器200内示出了并行处理单元202的单个实例,但是可包括并行处理单元202的任何数量的实例。例如,可在单个附加卡上提供并行处理单元202的多个实例,或可将多个附加卡互连。并行处理单元202的不同实例可配置成:即使所述不同实例具有不同数量的处理核、不同量的本地并行处理器存储器和/或其它配置差异也仍互操作。可选地,并行处理单元202的一些实例相对于其它实例可包括更高精度浮点单元。合并并行处理单元202或并行处理器200的一个或多个实例的系统可用各种配置和形状因数(form factor)来实现,包括但不限于台式计算机、膝上型计算机、或手持个人计算机、服务器、工作站、游戏控制台和/或嵌入式系统。
28.图2b是分区单元220的框图。分区单元220可以是图2a的分区单元220a
‑
220n之一的实例。如所示出,分区单元220包括l2高速缓存221、帧缓冲器接口225和rop 226(栅格操作单元)。l2高速缓存221是读/写高速缓存,其配置成执行从存储器交叉开关216和rop 226接收的加载和存储操作。由l2高速缓存221将读未命中(read miss)和紧急回写请求输出到帧缓冲器接口225以便处理。也可经由帧缓冲器接口225将更新发送到帧缓冲器以便处理。在一个实施例中,帧缓冲器接口225与并行处理器存储器中的存储器单元(诸如,图2a的存储器单元224a
‑
224n(例如,在并行处理器存储器222内))之一通过接口连接(interface)。分区单元220还可附加地或备选地经由存储器控制器(未示出)与并行处理器存储器中的存
储器单元中的一个通过接口连接。
29.在图形应用中,rop 226是执行诸如模板印刷(stencil)、z测试、混合之类的栅格操作的处理单元。随后rop 226输出存储在图形存储器中的经处理的图形数据。在一些实施例中,rop 226包括压缩逻辑,该压缩逻辑用于压缩写入到存储器的深度或颜色数据,并且解压缩从存储器读取的深度或颜色数据。压缩逻辑可以是利用多种压缩算法中的一种或多种压缩算法的无损压缩逻辑。由rop 226所执行的压缩的类型可基于待压缩的数据的统计特性而变化。例如,在一个实施例中,增量颜色压缩(delta color compression)在逐贴片(per
‑
tile)的基础上对深度和颜色数据执行。
30.在每个处理集群(例如,图2a的集群214a
‑
214n)而不是分区单元220内可包括rop 226。在这样的实施例中,通过存储器交叉开关216传送对于像素数据而不是像素片段数据的读和写请求。经处理的图形数据可在显示装置(例如图1的一个或多个显示装置110)上显示、被路由以供(一个或多个)处理器102进一步处理或被路由以供图2a的并行处理器200内的处理实体中的其中之一来进一步处理。
31.图2c是并行处理单元内的处理集群214的框图。例如,处理集群是图2a的处理集群214a
‑
214n之一的实例。处理集群214可配置成并行执行许多线程,其中,术语“线程”是指在特定的一组输入数据上执行的特定程序的实例。可选地,在不提供多个独立指令单元的情况下,可使用单指令多数据(simd)指令发布技术以支持对大数量线程的并行执行。备选地,使用配置成将指令发布到处理集群中的每一个内的一组处理引擎的公共指令单元,单指令多线程(simt)技术可被用于支持大量的一般同步的线程的并行执行。不同于simd执行制度(其中,所有处理引擎通常执行相同的指令),simt执行允许不同线程通过给定线程程序更容易地遵循分歧的执行路径。本领域技术人员将理解,simd处理制度表示simt处理制度的功能子集。
32.可经由流水线管理器232来控制处理集群214的操作,所述流水线管理器将处理任务分布到simt并行处理器。流水线管理器232从图2a的调度器210接收指令,并且经由图形多处理器234和/或纹理单元236来管理那些指令的执行。所示出的图形多处理器234是simt并行处理器的示例性实例。然而,不同架构的各种类型的simt并行处理器可被包括在处理集群214内。图形多处理器234的一个或多个实例可被包括在处理集群214内。图形多处理器234可处理数据,并且数据交叉开关240可用于将所处理的数据分布到多个可能目的地(包括其它着色器单元)之一。流水线管理器232可通过指定针对要经由数据交叉开关240来分布的经处理的数据的目的地来促进分布经处理的数据。
33.处理集群214内的每个图形多处理器234可包括相同一组功能执行逻辑(例如,算术逻辑单元、加载
‑
存储单元等)。能以流水线方式来配置功能执行逻辑,用该流水线方式,在先前的指令完成之前可发布新指令。功能执行逻辑支持各种操作,包括整数和浮点算术、比较操作、布尔操作、位移位和各种代数函数的计算。可利用相同功能单元硬件来执行不同操作,并且可存在功能单元的任何组合。
34.传送至处理集群214的指令构成线程。跨一组并行处理引擎而执行的一组线程是线程群组。线程群组对不同的输入数据执行相同程序。可将线程群组内的每个线程分配给图形多处理器234内的不同处理引擎。线程群组可包括比图形多处理器234内的处理引擎数量更少的线程。当线程群组包括比处理引擎的数量更少的线程时,处理引擎中的一个或多
个在线程群组正在被处理的循环期间可以是空闲的。线程群组也可包括比图形多处理器234内的处理引擎数量更多的线程。当线程群组包括比图形多处理器234内的处理引擎数量更多的线程时,可通过连续时钟循环执行处理。可选地,可在图形多处理器234上并发地执行多个线程群组。
35.图形多处理器234可包括用于执行加载和存储操作的内部高速缓冲存储器。可选地,图形多处理器234可放弃内部高速缓存,并且使用处理集群214内的高速缓冲存储器(例如,l1高速缓存248)。每个图形多处理器234还有权访问可用于在线程之间转移数据并且在所有处理集群214当中共享的分区单元(例如,图2a的分区单元220a
‑
220n)内的l2高速缓存。图形多处理器234还可访问芯片外全局存储器,所述芯片外全局存储器可包括本地并行处理器存储器和/或系统存储器中的一个或多个。可将并行处理单元202外部的任何存储器用作全局存储器。实施例(其中处理集群214包括图形多处理器234的多个实例)可共享公共指令和数据,所述公共指令和数据可存储在l1高速缓存248中。
36.每个处理集群214可包括mmu 245(存储器管理单元),所述mmu配置成将虚拟地址映射到物理地址中。在其它实施例中,mmu 245的一个或多个实例可驻留在图2a的存储器接口218内。mmu 245包括:一组页表条目(pte),用于将贴片的虚拟地址映射到物理地址;以及可选地高速缓存行索引。mmu 245可包括可驻留在图形多处理器234或l1高速缓存或处理集群214内的地址转化后备缓冲器(address translation lookaside buffer)(tlb)或高速缓存。物理地址经处理以分布表面数据访问局域性,从而允许在分区单元当中高效的请求交织。高速缓存行索引可用于确定针对高速缓存行的请求是命中还是未命中。
37.在图形和计算应用中,处理集群214可被配置使得每个图形多处理器234耦合到纹理单元236以用于执行纹理映射操作,例如确定纹理样本位置、读取纹理数据和过滤纹理数据。根据需要,从内部纹理l1高速缓存(未示出)或在一些实施例中从图形多处理器234内的l1高速缓存读取纹理数据,并且从l2高速缓存、本地并行处理器存储器或系统存储器提取所述纹理数据。每个图形多处理器234将经处理的任务输出到数据交叉开关240以将经处理的任务提供给另一处理集群214,以供进一步处理或以经由存储器交叉开关216将经处理的任务存储在l2高速缓存、本地并行处理器存储器或系统存储器中。prerop 242(预栅格操作单元)配置成从图形多处理器234接收数据、将数据引导到rop单元,所述rop单元可与如本文中描述的分区单元(例如,图2a的分区单元220a
‑
220n)位于一起。prerop 242单元可执行针对颜色混合的优化、组织像素颜色数据和执行地址转化。
38.将认识到,本文中描述的核架构是说明性的,并且变形和修改是有可能的。任何数量的处理单元(例如,图形多处理器234、纹理单元236、prerop 242等)可被包括在处理集群214内。此外,虽然仅示出了一个处理集群214,但是如本文中描述的并行处理单元可包括处理集群214的任何数量的实例。可选地,每个处理集群214可配置成使用单独且不同的处理单元、l1高速缓存等独立于其它处理集群214来操作。
39.图2d示出了图形多处理器234的示例,图2d中图形多处理器234与处理集群214的流水线管理器232耦合。图形多处理器234具有执行流水线,其包括但不限于:指令高速缓存252、指令单元254、地址映射单元256、寄存器堆(file)258、一个或多个通用图形处理单元(gpgpu)核262和一个或多个加载/存储单元266。gpgpu核262和加载/存储单元266经由存储器和高速缓存互连268与高速缓冲存储器272和共享存储器270耦合。图形多处理器234可另
外包括张量和/或光线追踪核263,其包括用于加速矩阵和/或光线追踪操作的硬件逻辑。
40.指令高速缓存252可从流水线管理器232接收待执行的指令流。所述指令被高速缓存在指令高速缓存252中,并且由指令单元254分派以供执行。指令单元254可将指令分派为线程群组(例如,线程束(warp)),其中线程群组的每个线程被指派给gpgpu核262内的不同执行单元。指令可通过指定统一地址空间内的地址来访问本地、共享或全局地址空间中的任一个。地址映射单元256可用于将统一地址空间中的地址转化成可由加载/存储单元266访问的不同的存储器地址。
41.寄存器堆258为图形多处理器234的功能单元提供一组寄存器。寄存器堆258为连接到图形多处理器234的功能单元(例如,gpgpu核262、加载/存储单元266)的数据路径的操作数提供临时存储。在所述功能单元中的每个之间可划分寄存器堆258,使得每个功能单元分配有寄存器堆258的专用部分。例如,在由图形多处理器234执行的不同线程束之间可划分寄存器堆258。
42.gpgpu核262可各自包括浮点单元(fpu)和/或整数算术逻辑单元(alu),所述fpu和整数alu用于执行图形多处理器234的指令。在一些实现中,gpgpu核262可包括硬件逻辑,其可以以其它方式驻留在张量和/或光线追踪核263内。gpgpu核262可在架构上是类似的,或可在架构上是不同的。例如且在一个实施例中,gpgpu核262的第一部分包括单精度fpu和整数alu,而gpgpu核的第二部分包括双精度fpu。可选地,fpu可针对浮点算术来实现ieee 754
‑
2008标准,或能够实现可变精度浮点算术。图形多处理器234可另外包括一个或多个固定功能或特殊功能单元以执行特定功能(诸如,复制矩形或像素混合操作)。gpgpu核中的一个或多个也可包括固定或特殊功能逻辑。
43.gpgpu核262可包括能够对多组数据执行单指令的simd逻辑。可选地,gpgpu核262可物理地执行simd4、simd8和simd16指令,并且逻辑上执行simd1、simd2和simd32指令。用于gpgpu核的simd指令可由着色器编译器在编译时间生成,或者可在执行针对单程序多数据(spmd)或simt架构而编写和编译的程序时自动生成。针对simt执行模型而配置的程序的多个线程可经由单simd指令而执行。例如且在一个实施例中,执行相同或类似操作的八个simt线程可经由单个simd8逻辑单元并行地执行。
44.存储器和高速缓存互连268是互连网络,其将图形多处理器234的功能单元中的每个连接到寄存器堆258并连接到共享存储器270。例如,存储器和高速缓存互连268是交叉开关互连,其允许加载/存储单元266在共享存储器270与寄存器堆258之间实现加载和存储操作。寄存器堆258能与gpgpu核262以相同频率操作,由此在gpgpu核262与寄存器堆258之间的数据转移是非常低的时延。共享存储器270可用于能够实现图形多处理器234内的功能单元上执行的线程之间的通信。高速缓冲存储器272可用作例如数据高速缓存,以对功能单元与纹理单元236之间传递的纹理数据进行高速缓存。共享存储器270也可用作程序管理的高速缓存(cached)。在gpgpu核262上执行的线程能以程序方式将除了存储在高速缓冲存储器272内的自动高速缓存的数据之外的数据存储在共享存储器内。
45.图3a
‑
3c示出了根据实施例的另外的图形多处理器。图3a
‑
3b示出了图形多处理器325、350,所述图形多处理器325、350与图2c的图形多处理器234相关,并且可代替这些中的一个使用。因此,本文中任何特征与图形多处理器234的组合的公开也公开了与(一个或多个)图形多处理器325、350的对应组合,但不限于此。图3c示出了图形处理单元(gpu)380,其
包括布置成多核群组365a
‑
365n的图形处理资源的专用集合,所述多核群组365a
‑
365n对应于图形多处理器325、350。示出的图形多处理器325、350和多核群组365a
‑
365n可以是能够同时执行大量执行线程的流播多处理器(streaming multiprocessor)(sm)。
46.图3a的图形多处理器325包括涉及图2d的图形多处理器234的执行资源单元的多个附加实例。例如,图形多处理器325可包括指令单元332a
‑
332b、寄存器堆334a
‑
334b和(一个或多个)纹理单元344a
‑
344b的多个实例。图形多处理器325还包括多组图形或计算执行单元(例如,gpgpu核336a
‑
336b、张量核337a
‑
337b、光线追踪核338a
‑
338b)和多组加载/存储单元340a
‑
340b。执行资源单元具有公共指令高速缓存330、纹理和/或数据高速缓冲存储器342以及共享存储器346。
47.各种组件可经由互连组构327通信。互连组构327可包括一个或多个交叉开关(crossbar switch)以能够实现图形多处理器325的各种组件之间的通信。互连组构327可以是分开的高速网络组构层,图形多处理器325的每个组件堆叠在该分开的高速网络组构层上。图形多处理器325的组件经由互连组构327与远程组件通信。例如,gpgpu核336a
‑
336b、337a
‑
337b以及338a
‑
338b可各自经由互连组构327与共享存储器346通信。互连组构327可仲裁图形多处理器325内的通信以确保组件之间的公平带宽分配。
48.图3b的图形处理器350包括多组执行资源356a
‑
356d,其中,每组执行资源包括多个指令单元、寄存器堆、gpgpu核和加载存储单元,如图2d和图3a中所示出。执行资源356a
‑
356d可与(一个或多个)纹理单元360a
‑
360d一致地工作以用于纹理操作,同时共享指令高速缓存354和共享存储器353。例如,执行资源356a
‑
356d可共享指令高速缓存354和共享存储器353,以及纹理和/或数据高速缓冲存储器358a
‑
358b的多个实例。各种组件可经由类似于图3a的互连组构327的互连组构352来通信。
49.本领域技术人员将理解,图1、图2a
‑
2d以及图3a
‑
3b中所描述的架构就本实施例的范畴而言是描述性的而非限制性的。因此,在不背离本文中描述的实施例的范畴的情况下,本文中描述的技术可在任何正确配置的处理单元上实现,所述处理单元包括但不限于一个或多个移动应用处理器、一个或多个台式计算机或服务器中央处理单元(cpu)(包括多核cpu)、一个或多个并行处理单元(诸如,图2a的并行处理单元202)以及一个或多个图形处理器或专用处理单元。
50.如本文中描述的并行处理器或gpgpu可通信地耦合到主机/处理器核以加速图形操作、机器学习操作、模式分析操作和各种通用gpu(gpgpu)功能。gpu可通过总线或其它互连(例如,诸如pcie或nvlink的高速互连)通信地耦合到主机处理器/核。在其它实施例中,gpu可与所述核集成在相同封装或芯片上,并且通过内部处理器总线/互连(即,在所述封装或芯片的内部)通信地耦合到所述核。不管连接gpu所采用的方式如何,处理器核都可采取以工作描述符中所包含的命令/指令的序列的形式将工作分配给gpu。gpu然后使用专用的电路系统/逻辑以用于高效地处理这些命令/指令。
51.图3c示出了包括布置到多核群组365a
‑
365n中的图形处理资源的专用集合的图形处理单元(gpu)380。尽管提供了仅单个多核群组365a的细节,但将领会的是,其它多核群组365a
‑
365n可被配备有图形处理资源的相同或类似集合。关于多核群组365a
‑
365n描述的细节也可适用于本文中描述的任何图形多处理器234、325、350。
52.如所示出的,多核群组365a可包括图形核370的集合、张量核371的集合和光线追
踪核372的集合。调度器/分派器368调度和分派图形线程以供在各种核370、371、372上执行。寄存器堆369的集合存储在执行图形线程时由核370、371、372使用的操作数值。这些寄存器可包括例如用于存储整数值的整数寄存器、用于存储浮点值的浮点寄存器、用于存储打包数据元素(整数和/或浮点数据元素)的向量寄存器及用于存储张量/矩阵值的贴片寄存器。贴片寄存器可被实现为向量寄存器的组合集合。
53.一个或多个组合的1级(l1)高速缓存和共享存储器单元373在每个多核群组365a内本地地存储图形数据,诸如纹理数据、顶点数据、像素数据、光线数据、包围体积数据等。一个或多个纹理单元374还可被用于执行纹理操作,诸如纹理映射和采样。由多核群组365a
‑
365n的全部或其子集共享的2级(l2)高速缓存375存储用于多个并发图形线程的图形数据和/或指令。如所示出的,l2高速缓存375可跨多个多核群组365a
‑
365n被共享。一个或多个存储器控制器367将gpu 380耦合到存储器366,所述存储器366可以是系统存储器(例如,dram)和/或专用图形存储器(例如,gddr6存储器)。
54.输入/输出(i/o)电路系统363将gpu 380耦合到一个或多个i/o装置362,诸如数字信号处理器(dsp)、网络控制器或用户输入装置。片上互连可被用于将i/o装置362耦合到gpu 380和存储器366。i/o电路系统363的一个或多个i/o存储器管理单元(iommu)364将i/o装置362直接耦合到系统存储器366。可选地,iommu 364管理页表的多个集合,以将虚拟地址映射到系统存储器366中的物理地址。i/o装置362、(一个或多个)cpu 361和(一个或多个)gpu 380然后可共享相同虚拟地址空间。
55.在iommu 364的一个实现中,iommu 364支持虚拟化。在此情况下,它可管理页表的第一集合以将客户/图形虚拟地址映射到客户/图形物理地址,并且管理页表的第二集合以将客户/图形物理地址映射到系统/主机物理地址(例如,在系统存储器366内)。页表的第一和第二集合中的每个的基址可被存储在控制寄存器中并且在上下文切换时被换出(例如,使得新的上下文被提供有对页表的相关集合的访问)。尽管在图3c中未被示出,但多核群组365a
‑
365n和/或核370、371、372中的每个可包括转化后备缓冲器(tlb),以对客户虚拟到客户物理转化、客户物理到主机物理转化以及客户虚拟到主机物理转化进行高速缓存。
56.cpu 361、gpu 380和i/o装置362可被集成在单个半导体芯片和/或芯片封装上。示出的存储器366可被集成在相同芯片上,或者可经由片外(off
‑
chip)接口被耦合到存储器控制器367。在一个实现中,存储器366包括gddr6存储器,所述gddr6存储器共享与其它物理系统级存储器相同虚拟地址空间,但是本文中所述的基础原理不限于此特定实现。
57.张量核371可包括特别设计成执行矩阵运算的多个执行单元,所述矩阵运算是用于执行深度学习操作的基础计算操作。例如,同时矩阵乘法运算可被用于神经网络训练和推理。张量核371可使用各种操作数精度来执行矩阵处理,所述各种操作数精度包括单精度浮点(例如,32位)、半精度浮点(例如,16位)、整数字(16位)、字节(8位)和半字节(4位)。例如,神经网络实现取出每个经渲染的场景的特征,潜在地组合来自多个帧的细节,以构造高质量的最终图像。
58.在深度学习实现中,可调度并行矩阵乘法工作以供在张量核371上执行。神经网络的训练特别要求大量的矩阵点积运算。为了处理n x n x n矩阵相乘的内积公式,张量核371可包括至少n个点积处理元素。在矩阵相乘开始前,一个完整矩阵被加载到贴片寄存器,并且在n个周期的每个周期,第二矩阵的至少一列被加载。每个周期,有被处理的n个点积。
59.取决于特定实现,可以以不同精度存储矩阵元素,所述不同精度包括16位字、8位字节(例如,int8)和4位半字节(例如,int4)。可为张量核371指定不同精度模式以确保最高效的精度被用于不同工作负载(例如,诸如可容许量化到字节和半字节的推理工作负载)。
60.光线追踪核372对于实时光线追踪和非实时光线追踪实现二者均可使光线追踪操作加速。特别地,光线追踪核372可包括光线遍历(ray traversal)/交叉电路系统,以用于使用包围体积层级(bounding volume hierarchy)(bvh)来执行光线遍历并且标识封闭在bvh体积之内的图元与光线之间的交叉。光线追踪核372还可包括用于执行深度测试和拣选(culling)(例如,使用z缓冲器或类似布置)的电路系统。在一个实现中,光线追踪核372与本文中描述的图像去噪技术协同执行遍历和交叉操作,其至少一部分可在张量核371上被执行。例如,张量核371可实现深度学习神经网络以执行由光线追踪核372生成的帧的去噪。然而,(一个或多个)cpu 361、图形核370和/或光线追踪核372还可实现去噪和/或深度学习算法的全部或一部分。
61.另外,如上所述,可采用去噪的分布式方法,其中gpu 380在通过网络或高速互连耦合到其它计算装置的计算装置中。在该分布式方法中,互连的计算装置可共享神经网络学习/训练数据来改进速度,利用该速度整个系统学习对不同类型的图像帧和/或不同的图形应用执行去噪。
62.光线追踪核372可处理所有bvh遍历和/或光线
‑
图元交叉,从而避免图形核370以每光线数千个指令而过载。例如,每个光线追踪核372包括用于执行包围盒测试(例如,对于遍历操作)的专用电路系统的第一集合和/或用于执行光线
‑
三角形交叉测试(例如,交叉已被遍历的光线)的专用电路系统的第二集合。因此,例如,多核群组365a可仅仅启动光线探头,并且光线追踪核372独立执行光线遍历和交叉并且将命中(hit)数据(例如,命中、无命中(no hit)、多次命中等)返回到线程上下文。在光线追踪核372执行遍历和交叉操作的同时,其它核370、371被释放以执行其它图形或计算工作。
63.可选地,每个光线追踪核372可包括用于执行bvh测试操作的遍历单元和/或执行光线
‑
图元交叉测试的交叉单元。交叉单元生成“命中”、“无命中”或“多次命中”响应,交叉单元将该响应提供到适当的线程。在遍历和交叉操作期间,其它核(例如,图形核370和张量核371)的执行资源被释放以执行其它形式的图形工作。
64.在下述的一个可选实施例中,使用了混合栅格化/光线追踪方法,其中在图形核370与光线追踪核372之间分布工作。
65.光线追踪核372(和/或其它核370、371)可包括对诸如microsoft的directx光线追踪(dxr)之类的光线追踪指令集的硬件支持,所述dxr包括dispatchrays命令以及光线
‑
生成、最接近
‑
命中、任何
‑
命中和未命中(miss)着色器,这些能够实现对每个对象指派纹理和着色器的独特集合。可由光线追踪核372、图形核370和张量核371支持的另一光线追踪平台是vulkan 1.1.85。然而,注意本文中所述的基础原理不限于任何特定光线追踪isa。
66.一般而言,各种核372、371、370可支持光线追踪指令集,所述光线追踪指令集包括用于光线生成、最接近命中、任何命中、光线
‑
图元交叉、每图元和分层包围盒构造、未命中、访问及异常(exception)中的一个或多个的指令/功能。更特定地说,优选的实施例包括光线追踪指令以执行以下功能中的一个或多个:光线生成
ꢀ–ꢀ
可为每个像素、样本或其它用户定义的工作指派执行光线生成指令。
67.最接近命中
ꢀ–ꢀ
可执行最接近命中指令,以用场景内的图元来定位光线的最接近交叉点。
68.任何命中
ꢀ‑ꢀ
任何命中指令标识场景内的图元与光线之间的多个交叉,潜在地标识新的最接近交叉点。
69.交叉
ꢀ‑ꢀ
交叉指令执行光线
‑
图元交叉测试并且输出结果。
70.每图元包围盒构造
ꢀ‑ꢀ
此指令围绕给定图元或图元的群组构建包围盒(例如,在构建新的bvh或其它加速数据结构时)。
71.未命中
ꢀ–ꢀ
指示光线未命中场景的指定区域或场景内的所有几何。
72.访问
ꢀ–ꢀ
指示光线将遍历的子代体积(children volume)。
73.异常
ꢀ‑ꢀ
包括各种类型的异常处理程序(例如,针对各种误差状况而被调用)。
74.用于gpu与主机处理器互连的技术图4a示出了示例性架构,其中多个gpu 410
‑
413(例如,诸如图2a中所示的并行处理器200)通过高速链路440a
‑
440d(例如,总线、点对点互连等)通信地耦合到多个多核处理器405
‑
406。取决于实现,高速链路440a
‑
440d可支持4gb/s、30gb/s、80gb/s或更高的通信吞吐量。可使用各种互连协议,包括但不限于pcie 4.0或5.0以及nvlink 2.0。然而,本文中描述的根本原理不限于任何特定通信协议或吞吐量。
75.gpu 410
‑
413中的两个或更多个可通过高速链路442a
‑
442b互连,所述高速链路可使用与用于高速链路440a
‑
440d的那些协议/链路相同或不同的协议/链路来实现。类似地,多核处理器405
‑
406中的两个或更多个可通过高速链路443连接,所述高速链路443可以是以20gb/s、30gb/s、120gb/s或更高来操作的对称多处理器(smp)总线。备选地,图4a中所示的各种系统组件之间的所有通信可使用相同协议/链路(例如,通过公共互连组构)来实现。然而,如所提到的,本文中描述的根本原理不限于任何特定类型的互连技术。
76.每个多核处理器405
‑
406可分别经由存储器互连430a
‑
430b通信地耦合到处理器存储器401
‑
402,并且每个gpu 410
‑
413分别通过gpu存储器互连450a
‑
450d通信地耦合到gpu存储器420
‑
423。存储器互连430a
‑
430b以及450a
‑
450d可利用相同或不同的存储器访问技术。通过示例且非限制的方式,处理器存储器401
‑
402和gpu存储器420
‑
423可以是易失性存储器,诸如动态随机存取存储器(dram)(包括堆叠式dram)、图形ddr sdram(gddr)(例如,gddr5、gddr6)或高带宽存储器(hbm),和/或可以是非易失性存储器,诸如3d xpoint/optane或nano
‑
ram。例如,存储器的某部分可以是易失性存储器,并且另一部分可以是非易失性存储器(例如,使用两级存储器(2lm)层级)。
77.如下文所述,虽然各种处理器405
‑
406和gpu 410
‑
413可分别物理地耦合到特定存储器401
‑
402、420
‑
423,但是可实现统一存储器架构,其中相同虚拟系统地址空间(也称为“有效地址”空间)被分布在所有各个物理存储器当中。例如,处理器存储器401
‑
402可各自包括64gb的系统存储器地址空间,并且gpu存储器420
‑
423可各自包括32gb的系统存储器地址空间(在本示例中产生总共256gb的可寻址存储器)。
78.图4b示出多核处理器407与图形加速模块446之间的互连的额外可选细节。该图形加速模块446可包括集成在线卡上的一个或多个gpu芯片,所述线卡经由高速链路440耦合到处理器407。备选地,可将图形加速模块446与处理器407集成在相同的封装或芯片上。
79.所示出的处理器407包括多个核460a
‑
460d,其各自具有转化后备缓冲器461a
‑
461d和一个或多个高速缓存462a
‑
462d。所述核可包括用于执行指令和处理数据的各种其它组件(例如,指令提取单元、分支预测单元、解码器、执行单元、重排序缓冲器等),未示出所述其它组件以免模糊本文中描述的组件的根本原理。高速缓存462a
‑
462d可包括1级(l1)和2级(l2)高速缓存。另外,一个或多个共享的高速缓存456可被包括在高速缓存层级中并且由多组核460a
‑
460d共享。例如,处理器407的一个实施例包括24个核,其各自具有其自身的l1高速缓存、十二个共享的l2高速缓存和十二个共享的l3高速缓存。在本实施例中,l2和l3高速缓存中的一个由两个邻近的核共享。处理器407和图形加速器集成模块446与系统存储器441连接,所述系统存储器441可包括处理器存储器401
‑
402。
80.通过一致性总线464经由核间通信来针对存储在各种高速缓存462a
‑
462d、456和系统存储器441中的数据和指令而维持一致性。例如,每个高速缓存可具有与其相关联的高速缓存一致性逻辑/电路系统以响应于对于特定高速缓存行的检测到的读或写来通过一致性总线464进行通信。在一个实现中,通过一致性总线464来实现高速缓存监听协议,以监听高速缓存访问。高速缓存监听/一致性技术被本领域技术人员良好地理解,并且此处将不详细描述以免模糊使本文中描述的根本原理。
81.可提供代理电路425,所述代理电路425将图形加速模块446通信地耦合到一致性总线464,从而允许图形加速模块446作为核的对等物来加入高速缓存一致性协议。具体而言,接口435提供通过高速链路440(例如,pcie总线、nvlink等)至代理电路425的连接性,并且接口437将图形加速模块446连接到高速链路440。
82.在一个实现中,加速器集成电路436代表图形加速模块446的多个图形处理引擎431、432、n来提供高速缓存管理、存储器访问、上下文管理和中断管理服务。图形处理引擎431、432、n可各自包括单独的图形处理单元(gpu)。备选地,图形处理引擎431、432、n可包括gpu内不同类型的图形处理引擎,诸如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和块图像传送(blit)引擎。换句话说,图形加速模块可以是具有多个图形处理引擎431
‑
432、n的gpu,或图形处理引擎431
‑
432、n可以是集成在公共封装、线卡或芯片上的个体gpu。
83.加速器集成电路436可包括存储器管理单元(mmu)439以用于执行各种存储器管理功能,诸如虚拟至物理存储器转化(也称为有效至真实存储器转化)和用于访问系统存储器441的存储器访问协议。mmu 439还可包括转化后备缓冲器(tlb)(未示出)以用于高速缓存虚拟/有效至物理/真实地址转化。在一个实现中,高速缓存438存储命令和数据以供图形处理引擎431
‑
432、n进行高效访问。存储在高速缓存438和图形存储器433
‑
434、m中的数据可与核高速缓存462a
‑
462d、456以及系统存储器411保持一致。如所提到,这可经由代理电路425来实现,所述代理电路425代表高速缓存438和存储器433
‑
434、m来参与高速缓存一致性机制(例如,将更新发送到高速缓存438(与处理器高速缓存462a
‑
462d、456上的高速缓存行的修改/访问相关),以及从高速缓存438接收更新)。
84.一组寄存器445存储用于由图形处理引擎431
‑
432、n执行的线程的上下文数据,并且上下文管理电路448管理线程上下文。例如,上下文管理电路448可在上下文切换期间执行保存和恢复操作以保存和恢复各种线程的上下文(例如,其中,第一线程被保存并且第二线程被存储,使得可由图形处理引擎来执行第二线程)。例如,在上下文切换时,上下文管理电路448可将当前寄存器值存储到存储器中指派的(例如,由上下文指针标识的)区域。然
后,其可在返回到上下文时恢复所述寄存器值。中断管理电路447例如可接收并处理从系统装置接收的中断。
85.在一个实现中,由mmu 439将来自图形处理引擎431的虚拟/有效地址转化成系统存储器411中的真实/物理地址。可选地,加速器集成电路436支持多个(例如,4、8、16个)图形加速器模块446和/或其它加速器装置。图形加速器模块446可专用于在处理器407上执行的单个应用,或可在多个应用之间共享。可选地,提供虚拟化的图形执行环境,其中与多个应用或虚拟机(vm)共享图形处理引擎431
‑
432、n的资源。所述资源可被细划分成“切片”,其被分配给不同的vm和/或应用,这基于与所述vm和/或应用相关联的处理要求和优先级来进行。
86.因此,加速器集成电路436充当到对于图形加速模块446的系统的桥接器,并且提供地址转化和系统存储器高速缓存服务。在一个实施例中,为了促进桥接功能性,加速器集成电路436还可包括共享i/o 497(例如,pcie、usb)和硬件以能够实现电压、计时、性能、热气和安全的系统控制。共享i/o 497可利用单独的物理连接或可穿过高速链路440。另外,加速器集成电路436可为主机处理器提供虚拟化设施,以管理中断、存储器管理和图形处理引擎的虚拟化。
87.因为图形处理引擎431
‑
432、n的硬件资源被显式地映射到由主机处理器407所见的真实地址空间,所以任何主机处理器都可使用有效地址值来直接寻址这些资源。加速器集成电路436的一个可选功能是图形处理引擎431
‑
432、n的物理分离,使得它们对系统呈现为独立的单元。
88.一个或多个图形存储器433
‑
434、m可分别耦合到图形处理引擎431
‑
432、n中的每个。图形存储器433
‑
434、m存储正在由图形处理引擎431
‑
432、n中的每个处理的指令和数据。图形存储器433
‑
434、m可以是易失性存储器,诸如dram(包括堆叠式dram)、gddr存储器(例如,gddr5、gddr6)或hbm,和/或可以是非易失性存储器,诸如3d xpoint/optane或nano
‑
ram。
89.为了减少高速链路440上的数据业务,可使用偏置技术以确保存储在图形存储器433
‑
434、m中的数据是将被图形处理引擎431
‑
432、n最频繁地使用的并且优选地不被核460a
‑
460d(至少不是频繁地)使用的数据。类似地,偏置机制试图将由核(且优选地不是图形处理引擎431
‑
432、n)所需的数据保存在系统存储器411和所述核的高速缓存462a
‑
462d、456内。
90.根据图4c中所示出的变型,加速器集成电路436被集成在处理器407内。图形处理引擎431
‑
432、n经由接口437和接口435(其再次可利用任何形式的总线或接口协议)通过高速链路440来直接与加速器集成电路436通信。加速器集成电路436可执行与针对于图4b所描述的那些操作相同的操作,但考虑到其与一致性总线464和高速缓存462a
‑
462d、456的紧密接近性而潜在地处于更高的吞吐量。
91.所述实施例可支持不同的编程模型,包括专用进程编程模型(没有图形加速模块虚拟化)和共享的编程模型(有虚拟化)。后者可包括由加速器集成电路436控制的编程模型和由图形加速模块446控制的编程模型。
92.在专用进程模型的实施例中,图形处理引擎431
‑
432、n可在单一操作系统下专用于单个应用或进程。单个应用可将其它应用请求汇集(funnel)到图形引擎431
‑
432、n,从而
在vm/分区内提供虚拟化。
93.在专用进程编程模型中,可由多个vm/应用分区来共享图形处理引擎431
‑
432、n。共享的模型要求系统管理程序来虚拟化图形处理引擎431
‑
432、n,以允许由每个操作系统进行访问。针对无管理程序的单分区系统,图形处理引擎431
‑
432、n由操作系统所拥有。在两种情况下,操作系统可虚拟化图形处理引擎431
‑
432、n以提供对每个进程或应用的访问。
94.针对共享的编程模型,图形加速模块446或个体图形处理引擎431
‑
432、n使用进程句柄(process handle)来选择进程元素(process element)。进程元素可存储在系统存储器441中,并且使用本文中描述的有效地址至真实地址转化技术是可寻址的。进程句柄可以是在向图形处理引擎431
‑
432、n来登记其上下文(那就是说,调用系统软件以将进程元素添加到进程元素链表)时被提供给主机进程的实现特定的值。进程句柄的较低16位可以是进程元素链表内的进程元素的偏移。
95.图4d示出了示例性加速器集成切片490。如本文中所使用,“切片”包括加速器集成电路436的处理资源的指定部分。系统存储器441内的应用有效地址空间482存储进程元素483。响应于来自处理器407上执行的应用480的gpu调用(invocation)481可存储进程元素483。进程元素483包含对应的应用480的进程状态。包含在进程元素483中的工作描述符(wd)484可以是由应用请求的单个作业,或可包含指向作业队列的指针。在后一种情况下,wd 484是指向应用的地址空间482中的作业请求队列的指针。
96.图形加速模块446和/或个体图形处理引擎431
‑
432、n可被系统中的进程中的全部或子集共享。例如,本文中描述的技术可包括用于设立进程状态并且向图形加速模块446发送wd 484以在虚拟化环境中开始作业的基础设施。
97.在一个实现中,专用进程编程模型是实现特定的。在这个模型中,单个进程拥有图形加速模块446或个体图形处理引擎431。由于图形加速模块446由单个进程所拥有,在指派图形加速模块446之时,管理程序为拥有的分区初始化加速器集成电路436,并且操作系统为拥有的进程初始化加速器集成电路436。
98.在操作中,加速器集成切片490中的wd提取单元491提取下一个wd 484,所述下一个wd 484包括待由图形加速模块446的图形处理引擎之一来完成的工作的指示。来自wd 484的数据可存储在寄存器445中,并且由如所示出的mmu 439、中断管理电路447和/或上下文管理电路448使用。例如,mmu 439可包括用于访问os虚拟地址空间485内的段/页表486的段/页行走电路系统(walk circuitry)。中断管理电路447可处理从图形加速模块446接收的中断事件492。当执行图形操作时,由mmu 439将由图形处理引擎431
‑
432、n所生成的有效地址493转化为真实地址。
99.可为每个图形处理引擎431
‑
432、n和/或图形加速模块446复制相同一组寄存器445,并且这组寄存器445可由管理程序或操作系统来初始化。这些复制的寄存器中的每个可被包括在加速器集成切片490中。表1中示出了可由管理程序来初始化的示例性寄存器。
100.表1
‑
管理程序初始化的寄存器1切片控制寄存器2真实地址(ra)调度的进程区域指针3权限掩蔽覆盖寄存器4中断向量表条目偏移
5中断向量表条目限制6状态寄存器7逻辑分区id8真实地址(ra)管理程序加速器利用记录指针9存储描述寄存器表2中示出了可由操作系统来初始化的示例性寄存器。
101.表2
‑
操作系统初始化的寄存器1进程和线程标识2有效地址(ea)上下文保存/恢复指针3虚拟地址(va)加速器利用记录指针4虚拟地址(va)存储段表指针5权限掩蔽6工作描述符每个wd 484可以是特定于特定图形加速模块446和/或图形处理引擎431
‑
432、n的。它包含图形处理引擎431
‑
432、n要完成其工作所要求的全部信息,或者它可以是对其中应用已设立待完成的工作的命令队列的存储器位置的指针。
102.图4e示出了共享模型的附加可选细节。它包括其中存储有进程元素列表499的管理程序真实地址空间498。管理程序真实地址空间498经由管理程序496是可访问的,所述管理程序496虚拟化用于操作系统495的图形加速模块引擎。
103.共享的编程模型允许来自系统中所有分区或分区子集的所有进程或进程子集使用图形加速模块446。存在两个编程模型,其中,图形加速模块446由多个进程和分区共享:时间切片共享和图形定向共享(graphics directed shared)。
104.在这个模型中,系统管理程序496拥有图形加速模块446,并且使其功能可用于所有操作系统495。为使图形加速模块446支持由系统管理程序496进行的虚拟化,图形加速模块446可遵守以下要求:1)应用的作业请求必须是自主的(那就是说,无需在作业之间保持状态),或图形加速模块446必须提供上下文保存和恢复机制。2)由图形加速模块446保证在指定时间量内完成应用的作业请求(包括任何转化故障),或图形加速模块446提供抢占作业的处理的能力。3)当在定向共享编程模型中操作时,必须保证图形加速模块446在进程之间的公平性。
105.针对共享模型,要求应用480可用图形加速模块446类型、工作描述符(wd)、权限掩蔽寄存器(amr)值和上下文保存/恢复区域指针(csrp)来进行操作系统495系统调用。图形加速模块446类型描述了用于系统调用的靶向加速功能。图形加速模块446类型可以是系统特定的值。wd专门针对图形加速模块446被格式化,并且可采用如下形式:图形加速模块446命令、对用户定义的结构的有效地址指针、对命令队列的有效地址指针或用于描述待由图形加速模块446完成的工作的任何其它数据结构。在一个实施例中,amr值是待用于当前进程的amr状态。被传递到操作系统的值类似于设置amr的应用。如果加速器集成电路436和图形加速模块446实现不支持用户权限掩蔽覆盖寄存器(uamor),则在管理程序调用中传递amr之前操作系统可将当前uamor值应用于amr值。可选地,在将amr放置到进程元素483中之前管理程序496可应用当前权限掩蔽覆盖寄存器(amor)值。csrp可以是寄存器445之一,其
包含应用的地址空间482中的区域的有效地址以用于使图形加速模块446保存和恢复上下文状态。如果不要求在作业之间保存状态或当作业被抢占时,这个指针是可选的。上下文保存/恢复区域可以是固定的(pinned)系统存储器。
106.在接收到系统调用时,操作系统495可验证应用480已注册并且已被给予使用图形加速模块446的权限。然后,操作系统495用表3中所示的信息来调用管理程序496。
107.表3
–
os至管理程序调用参数1工作描述符(wd)2权限掩蔽寄存器(amr)值(潜在地被掩蔽)3有效地址(ea)上下文保存/恢复区域指针(csrp)4进程id(pid)和可选线程id(tid)5虚拟地址(va)加速器利用记录指针(aurp)6存储段表指针(sstp)的虚拟地址7逻辑中断服务号(lisn)在接收到管理程序调用时,管理程序496验证操作系统495已注册并且已被给予使用图形加速模块446的权限。然后,管理程序496将进程元素483放入到对于对应的图形加速模块446类型的进程元素链表中。进程元素可包括表4中所示的信息。
108.表4
‑
进程元素信息1工作描述符(wd)2权限掩蔽寄存器(amr)值(潜在地被掩蔽)3有效地址(ea)上下文保存/恢复区域指针(csrp)4进程id(pid)和可选线程id(tid)5虚拟地址(va)加速器利用记录指针(aurp)6存储段表指针(sstp)的虚拟地址7逻辑中断服务号(lisn)8从管理程序调用参数导出的中断向量表9状态寄存器(sr)值10逻辑分区id(lpid)11真实地址(ra)管理程序加速器利用记录指针12存储装置描述符寄存器(sdr)管理程序可初始化多个加速器集成切片490寄存器445。
109.如图4f中所示出,在一个可选实现中,采用经由公共虚拟存储器地址空间可寻址的统一存储器,所述公共虚拟存储器地址空间用于访问物理处理器存储器401
‑
402和gpu存储器420
‑
423。在这种实现中,在gpu 410
‑
413上执行的操作利用相同的虚拟/有效存储器地址空间来访问处理器存储器401
‑
402且反之亦然,由此简化可编程性。虚拟/有效地址空间的第一部分可被分配给处理器存储器401,第二部分被分配给第二处理器存储器402,第三部分被分配gpu存储器420,等等。由此跨处理器存储器401
‑
402和gpu存储器420
‑
423中的每个可分布整个虚拟/有效存储器空间(有时称为有效地址空间),从而允许任何处理器或gpu访问任何物理存储器(采用被映射到该存储器的虚拟地址)。
110.可提供mmu 439a
‑
439e中的一个或多个内的偏置/一致性管理电路系统494a
‑
494e,所述偏置/一致性管理电路系统确保主机处理器(例如,405)与gpu 410
‑
413的高速缓存之间的高速缓存一致性,并且实现指示其中应存储有某些类型的数据的物理存储器的偏置技术。虽然图4f中示出了偏置/一致性管理电路系统494a
‑
494e的多个实例,但是可在一个或多个主机处理器405的mmu内和/或在加速器集成电路436内实现偏置/一致性电路系统。
111.可使用共享虚拟存储器(svm)技术来访问gpu附连的存储器420
‑
423并可将其映射为系统存储器的一部分,而无需经受与完全系统高速缓存一致性相关联的典型性能缺陷。gpu附连的存储器420
‑
423作为系统存储器被访问而无繁重的高速缓存一致性开销的能力为gpu卸载提供了有益的操作环境。这种布置允许主机处理器405软件设立操作数和访问计算结果,而没有传统i/o dma数据拷贝的开销。此类传统拷贝涉及驱动器调用、中断和存储器映射i/o(mmio)访问,其相对于简单的存储器访问全部都是低效的。同时,访问gpu附连的存储器420
‑
423而无高速缓存一致性开销的能力对于被卸载的计算的执行时间可以是关键的。在具有实质流播写存储器业务的情况下,例如,高速缓存一致性开销可显著减少由gpu 410
‑
413所见的有效写带宽。操作数设立的效率、结果访问的效率和gpu计算的效率在确定gpu卸载的有效性中全部都起到一定作用。
112.可由偏置跟踪器数据结构来驱动gpu偏置与主机处理器偏置之间的选择。例如,可使用偏置表,其可以是每gpu附连的存储器页包括1或2个位的页粒度结构(即,以存储器页的粒度来控制)。可在一个或多个gpu附连的存储器420
‑
423的被偷的(stolen)存储器范围中实现偏置表,其中在gpu 410
‑
413中具有或不具有偏置高速缓存(例如,用于高速缓存偏置表的频繁/最近使用的条目)。备选地,可将整个偏置表维持在gpu内。
113.在一个实现中,在实际访问gpu存储器之前访问与每一次访问gpu附连的存储器420
‑
423相关联的偏置表条目,从而促使以下操作。首先,来自gpu 410
‑
413的在gpu偏置中寻找其页的本地请求被直接转发到对应的gpu存储器420
‑
423。来自gpu的在主机偏置中寻找其页的本地请求被转发到处理器405(例如,通过如上文所讨论的高速链路)。可选地,来自处理器405的在主机处理器偏置中寻找所请求的页的请求完成像正常存储器读取的请求。备选地,可将针对gpu偏置的页的请求转发到gpu 410
‑
413。然后,如果gpu当前未在使用该页,则gpu可将该页转变到主机处理器偏置。
114.可由基于软件的机制、硬件辅助的基于软件的机制抑或针对有限的一组情况由纯粹基于硬件的机制来改变页的偏置状态。
115.用于改变偏置状态的一个机制采用api调用(例如,opencl),其进而调用gpu的装置驱动器,所述装置驱动器进而发送消息(或入队命令描述符)到gpu,从而指导它改变偏置状态并且针对一些转变在主机中执行高速缓存转储清除(flushing)操作。高速缓存转储清除操作对于从主机处理器405偏置转变到gpu偏置来说是需要的,但对于反向转变来说是不需要的。
116.通过暂时渲染由主机处理器405不可高速缓存的gpu偏置页可维持高速缓存一致性。为了访问这些页,处理器405可请求来自gpu 410的访问,其可或可不立即授予访问(取决于实现)。因此,为减少主机处理器405与gpu 410之间的通信,对于确保gpu偏置页是由gpu所要求但非被主机处理器405所要求(且反之亦然)的那些页是有利的。
117.图形处理流水线
图5示出图形处理流水线500。图形多处理器(诸如,如图2d中的图形多处理器234、图3a的图形多处理器325、图3b的图形多处理器350)可实现所示出的图形处理流水线500。所述图形多处理器可被包括在如本文中描述的并行处理子系统(诸如图2a的并行处理器200)内,其可与图1的(一个或多个)并行处理器112有关并且可代替这些中的一个使用。各种并行处理系统可经由如本文中描述的并行处理单元(例如,图2a的并行处理单元202)的一个或多个实例来实现图形处理流水线500。例如,着色器单元(例如,图2c的图形多处理器234)可配置成执行顶点处理单元504、曲面细分控制处理单元508、曲面细分评估处理单元512、几何处理单元516和片段/像素处理单元524中的一个或多个的功能。数据组装器502、图元组装器506、514、518、曲面细分单元510、栅格化器522和栅格操作单元526的功能也可由处理集群(例如,图2a的处理集群214)内的其它处理引擎和对应的分区单元(例如,图2a的分区单元220a
‑
220n)来执行。还可使用针对一个或多个功能的专用处理单元来实现图形处理流水线500。还可能的是,由通用处理器(例如,cpu)内的并行处理逻辑来执行图形处理流水线500的一个或多个部分。可选地,图形处理流水线500的一个或多个部分可经由存储器接口528来访问芯片上存储器(例如,如图2a中的并行处理器存储器222),所述存储器接口528可以是图2a的存储器接口218的实例。图形处理器流水线500也可经由如图3c中的多核群组365a来实现。
118.数据组装器502是可收集对于表面和图元的顶点数据的处理单元。数据组装器502随后将包括顶点属性的顶点数据输出至顶点处理单元504。顶点处理单元504是可编程执行单元,其执行顶点着色器程序,如由顶点着色器程序所指定那样照亮(lighting)并变换顶点数据。顶点处理单元504读取存储在高速缓存、本地或系统存储器中的数据以供在处理顶点数据时使用,并且顶点处理单元504可被编程为将顶点数据从基于对象的坐标表示变换到世界空间坐标空间或归一化装置坐标空间。
119.图元组装器506的第一实例从顶点处理单元504接收顶点属性。图元组装器506按需读取存储的顶点属性,并且构建图形图元以用于由曲面细分控制处理单元508处理。图形图元包括如由各种图形处理应用编程接口(api)所支持的三角、线段、点、补片(patch)等等。
120.曲面细分控制处理单元508将输入顶点视为用于几何补片的控制点。控制点是从来自补片的输入表示(例如,补片的基础)变换到适合于供曲面细分评估处理单元512在表面评估中使用的表示。曲面细分控制处理单元508也可计算对于几何补片的边缘的曲面细分因数。曲面细分因数应用于单个边缘,并且对与该边缘相关联的依赖视图的细节等级进行量化。曲面细分单元510配置成接收对于补片的边缘的曲面细分因数,并且将补片曲面细分成诸如线、三角或四边形图元的多个几何图元,其被传送到曲面细分评估处理单元512。曲面细分评估处理单元512对细划分的补片的参数化坐标进行操作,以生成对于与几何图元相关联的每个顶点的表面表示和顶点属性。
121.图元组装器514的第二实例从曲面细分评估处理单元512接收顶点属性(所述曲面细分评估处理单元按需读取存储的顶点属性),并且构建图形图元以便由几何处理单元516处理。几何处理单元516是可编程执行单元,其执行几何着色器程序以按由几何着色器程序所指定那样变换从图元组装器514所接收的图形图元。几何处理单元516可被编程为将图形图元细划分成一个或多个新图形图元,并且运算用于对新图形图元进行栅格化的参数。
122.几何处理单元516可以能够在几何流中增加或删除元素。几何处理单元516将指定新图形图元的参数和顶点输出到图元组装器518。图元组装器518从几何处理单元516接收参数和顶点,并且构建图形图元以便由视口缩放、拣选和剪辑单元(clip unit)520来处理。几何处理单元516读取存储在并行处理器存储器或系统存储器中的数据以供处理几何数据时使用。视口缩放、拣选和剪辑单元520执行剪辑、拣选和视口缩放,并将经处理的图形图元输出到栅格化器522。
123.栅格化器522可执行深度拣选和其它基于深度的优化。栅格化器522还对新图形图元执行扫描转换以生成片段,并且将那些片段和相关联的覆盖数据输出到片段/像素处理单元524。片段/像素处理单元524是配置成执行片段着色器程序或像素着色器程序的可编程执行单元。片段/像素处理单元524按由片段或像素着色器程序所指定那样变换从栅格化器522接收的片段或像素。例如,可将片段/像素处理单元524编程为执行以下操作以产生输出到栅格操作单元526的着色的片段或像素,所述操作包括但不限于纹理映射、着色、混合、纹理校正和透视校正。片段/像素处理单元524可读取存储在并行处理器存储器或系统存储器中的数据以供处理片段数据时使用。可将片段或像素着色器程序配置成以样本、像素、贴片或其它粒度来着色,这取决于针对处理单元配置的采样率。
124.栅格操作单元526是处理单元,其执行包括但不限于模板印刷、z测试、混合之类的栅格操作,并将像素数据作为经处理的图形数据输出以便存储在图形存储器(例如,如图2a中的并行处理器存储器222和/或如图1中的系统存储器104)中,从而显示在所述一个或多个显示装置110上,或者供(一个或多个)并行处理器112或一个或多个处理器102中的一个做进一步处理。可将栅格操作单元526配置成压缩被写入到存储器的z或颜色数据,并且解压缩从存储器读取的z或颜色数据。
125.机器学习概述上述架构可应用于使用机器学习模型来执行训练和推理操作。机器学习在解决多种任务方面已经成功了。当训练和使用机器学习算法(例如,神经网络)时出现的计算自然适合于高效的并行实现。因此,诸如通用图形处理单元(gpgpu)之类的并行处理器已经在深度神经网络的实际实现中起到重要作用。具有单指令多线程(simt)架构的并行图形处理器被设计成使图形流水线中的并行处理量最大化。在simt架构中,并行线程的群组试图尽可能经常地一起同步执行程序指令,以提高处理效率。由并行机器学习算法实现提供的效率允许使用高容量网络,并使那些网络能够在更大的数据集上得到训练。
126.机器学习算法是可基于数据集学习的算法。例如,机器学习算法可设计成对数据集内的高级抽象建模。例如,图像识别算法可用于确定给定输入属于若干类别中的哪一个;给定输入的话,回归(regression)算法可输出数值;并且模式识别算法可用于生成经转化的文本或执行文本到语音和/或语音识别。
127.示例性类型的机器学习算法是神经网络。有许多类型的神经网络;简单类型的神经网络是前馈网络。前馈网络可实现为其中节点用层布置的非循环图(acyclic graph)。通常,前馈网络拓扑包括被至少一个隐藏层分开的输入层和输出层。隐藏层将输入层接收的输入变换为对在输出层中生成输出有用的表示。网络节点经由到相邻层中的节点的边缘而完全连接,但在每个层内的节点之间没有边缘。在前馈网络的输入层的节点处接收的数据经由激活函数被传播(即,“前馈(fed forward)”)到输出层的节点,该激活函数基于分别与
连接层的边缘中的每个相关联的系数(“权重”)计算网络中每个连续层的节点的状态。根据由被执行的算法所表示的特定模型,来自神经网络算法的输出可采取各种形式。
128.在机器学习算法可用于对特定问题建模之前,使用训练数据集来训练算法。训练神经网络涉及选择网络拓扑、使用表示正被网络建模的问题的训练数据的集以及调整权重直到网络模型以最小误差对训练数据集的所有实例执行。例如,在对于神经网络的受监督学习训练过程期间,网络响应于表示训练数据集中的实例而产生的输出与对该实例的“正确的”经标记输出比较,计算表示输出与经标记输出之间的差异的误差信号,并且调整与连接相关联的权重以在误差信号通过网络层向后传播时使该误差最小化。在对于从训练数据集的实例生成的输出中的每个的误差被最小化时,网络被认为是“经训练的(trained)”。
129.机器学习算法的精确度可明显受到用于训练算法的数据集的质量的影响。训练过程可以是计算密集的并且在常规的通用处理器上可能需要大量时间。因此,并行处理硬件用于训练许多类型的机器学习算法。这对于优化神经网络的训练特别有用,这是因为在调整神经网络中的系数中执行的计算使得它们很自然地有助于并行实现。具体地,许多机器学习算法和软件应用已适合于利用通用图形处理装置内的并行处理硬件。
130.图6是机器学习软件堆栈600的通用图。机器学习应用602可配置成使用训练数据集来训练神经网络或使用经训练的深度神经网络来实现机器智能。机器学习应用602可包括用于神经网络的训练和推理功能性和/或可用于在部署之前训练神经网络的专用软件。机器学习应用602可实现任何类型的机器智能,其包括但不限于图像识别、测绘(mapping)和定位(localization)、自主导航、语音合成、医学成像或语言翻译。
131.用于机器学习应用602的硬件加速可经由机器学习框架604而启用。机器学习框架604可提供机器学习原语(machine learning primitive)库。机器学习原语是机器学习算法普遍执行的基本操作。在没有机器学习框架604的情况下,将需要机器学习算法的开发人员创建和优化与机器学习算法相关联的主计算逻辑,然后在开发新的并行处理器时重新优化计算逻辑。取而代之,机器学习应用可配置成使用机器学习框架604提供的原语来执行必要的计算。示例性原语包括张量卷积、激活函数和池化(pooling),它们是在训练卷积神经网络(cnn)时执行的计算操作。机器学习框架604还可提供原语来实现由许多机器学习算法执行的基本线性代数子程序,例如矩阵和向量运算。
132.机器学习框架604可处理从机器学习应用602接收的输入数据并且生成到计算框架606的合适的输入。计算框架606可抽取提供给gpgpu驱动器608的底层指令以使机器学习框架604能够经由gpgpu硬件610利用硬件加速而不需要机器学习框架604深入了解gpgpu硬件610的架构。另外,计算框架606可对机器学习框架604实现跨各种类型的和各代gpgpu硬件610的硬件加速。
133.gpgpu机器学习加速图7示出通用图形处理单元700,其可以是图2a的并行处理器200或图1的(一个或多个)并行处理器112。通用处理单元(gpgpu)700可配置成在处理与训练深度神经网络相关联的那类计算工作负荷时特别高效。另外,gpgpu 700可直接链接到gpgpu的其它实例来创建多gpu集群以针对特定深度神经网络提高训练速度。
134.gpgpu 700包括主机接口702,用于实现与主机处理器的连接。主机接口702可以是pci express接口。然而,主机接口还可以是供应商特定通信接口或通信组构。gpgpu 700从
主机处理器接收命令并且使用全局调度器704将与那些命令相关联的执行线程分布到一组处理集群706a
‑
706h。处理集群706a
‑
706h共享高速缓冲存储器708。高速缓冲存储器708可对于处理集群706a
‑
706h内的高速缓冲存储器充当较高级高速缓存。所示的处理集群706a
‑
706h可对应于如图2a中的处理集群214a
‑
214n。
135.gpgpu 700包括经由存储器控制器712a
‑
712b的集合而与处理集群706a
‑
h耦合的存储器714a
‑
714b。存储器714a
‑
714b可包括各种类型的存储器装置,其包括动态随机存取存储器(dram)或图形随机存取存储器,诸如同步图形随机存取存储器(sgram),其包括图形双数据速率(gddr)存储器。存储器714a
‑
714b还可包括3d堆叠存储器,其包括但不限于高带宽存储器(hbm)。
136.处理集群706a
‑
706h中的每个可包括一组图形多处理器,诸如图2d的图形多处理器234、图3a的图形多处理器325、图3b的图形多处理器350、或者可包括如图3c中的多核群组365a
‑
365n。计算集群的图形多处理器包括多种类型的整数和浮点逻辑单元,其可在包括适合于机器学习计算的一定精度范围执行计算操作。例如,至少处理集群706a
‑
706h中的每个中的浮点单元的子集可配置成执行16位或32位浮点运算,而浮点单元的不同子集可配置成执行64位浮点运算。
137.gpgpu 700的多个实例可配置成作为计算集群操作。该计算集群用于同步和数据交换的通信机制因实施例而变化。例如,gpgpu 700的多个实例通过主机接口702通信。在一个实施例中,gpgpu 700包括i/o集线器709,其将gpgpu 700与gpu链路710耦合,该gpu链路710能够实现到gpgpu的其它实例的直接连接。gpu链路710可耦合到专用gpu到gpu网桥,其能够实现gpgpu 700的多个实例之间的通信和同步。可选地,gpu链路710与高速互连耦合以向其它gpgpu或并行处理器传送数据和接收数据。gpgpu 700的多个实例可位于独立数据处理系统中并且经由网络装置通信,该网络装置经由主机接口702而可访问。除主机接口702外或作为主机接口702的备选,gpu链路710可配置成能够实现与主机处理器的连接。
138.尽管示出的gpgpu 700的配置可配置成训练神经网络,但gpgpu 700的备选配置可被配置用于部署在高性能或低功率推理平台内。在推理配置中,相对于训练配置,gpgpu 700包括更少的处理集群706a
‑
706h。另外,与存储器714a
‑
714b相关联的存储器技术在推理和训练配置之间可不同。在一个实施例中,gpgpu 700的推理配置可支持推理特定的指令。例如,推理配置可为通常在对于部署的神经网络的推理操作期间使用的一个或多个8位整数点积指令提供支持。
139.图8示出多gpu计算系统800。该多gpu计算系统800可包括处理器802,其经由主机接口开关804耦合到多个gpgpu 806a
‑
806d。主机接口开关804可以是pci express开关装置,其将处理器802耦合到pci express总线,处理器802通过该pci express总线可与一组gpgpu 806a
‑
806d通信。多个gpgpu 806a
‑
806d中的每个可以是图7的gpgpu 700的实例。gpgpu 806a
‑
806d可经由一组高速点到点gpu到gpu链路816互连。高速gpu到gpu链路可经由专用gpu链路(诸如图7中的gpu链路710)而连接到gpgpu 806a
‑
806d中的每个。p2p gpu链路816在gpgpu 806a
‑
806d中的每个之间实现直接通信而不需要在处理器802被连接到其的主机接口总线上通信。利用被引导到p2p gpu链路的gpu到gpu业务,主机接口总线仍然可用于系统存储器访问或者例如经由一个或多个网络装置与多gpu计算系统800的其它实例通信。虽然在图8中,gpgpu 806a
‑
806d经由主机接口开关804连接到处理器802,但处理器802可备
选地包括对p2p gpu链路816的直接支持并且可直接连接到gpgpu 806a
‑
806d。
140.机器学习神经网络实现本文中描述的计算架构可配置成执行特别适合于训练和部署神经网络以用于机器学习的那类并行处理。神经网络可归纳为具有图关系(graph relationship)的功能的网络。如在本领域内众所周知的,有多种类型的神经网络实现在机器学习中使用。一个示例性类型的神经网络是前馈网络,如之前描述的那样。
141.第二个示例性类型的神经网络是卷积神经网络(cnn)。cnn是用于处理具有已知的网格状拓扑的数据(诸如图像数据)的专门前馈神经网络。因此,cnn通常用于计算视觉和图像识别应用,但它们也可用于其它类型的模式识别,例如语音和语言处理。cnn输入层中的节点被组织成一组“过滤器”(受在视网膜中发现的接受域启发的特征检测器),并且每组过滤器的输出被传播到网络的连续层中的节点。对于cnn的计算包括对每个过滤器应用卷积数学运算来产生该过滤器的输出。卷积是由两个函数执行以产生第三函数的一种专门的数学运算,该第三函数是该两个原始函数中的一个的修改后的版本。在卷积网络术语中,到卷积的第一函数可称为输入,而第二函数可称为卷积内核。输出可称为特征图。例如,到卷积层的输入可以是定义输入图像的各种颜色分量的多维阵列的数据。卷积内核可以是多维阵列的参数,其中这些参数由训练过程为神经网络而适配。
142.递归神经网络(rnn)是前馈神经网络系列,其包括层之间的反馈连接。rnn通过跨神经网络的不同部分共享参数数据而启用对顺序(sequential)数据建模。rnn的架构包括循环。循环代表变量的当前值在未来时间对它自身的值的影响,这是因为来自rnn的输出数据的至少一部分被用作反馈以用于处理序列中的后续输入。该特征由于可在其中组成语言数据的变量性质而使得rnn对于语言处理特别有用。
143.下文描述的图呈现示例性前馈、cnn和rnn网络,以及描述用于分别训练和部署那些类型的网络中的每个的通用过程。将理解这些描述关于本文中描述的任何特定实施例是示例性且非限制性的并且所示出的概念一般可应用于深度神经网络和一般的机器学习技术。
144.上文描述的示例性神经网络可用于执行深度学习。深度学习是使用深度神经网络的机器学习。在深度学习中使用的深度神经网络是由多个隐藏层组成的人工神经网络,这与只包括单个隐藏层的浅层神经网络相对。更深层神经网络通常在计算上更密集来训练。然而,网络的额外隐藏层实现多步模式识别,其相对于浅机器学习技术导致输出误差减少。
145.在深度学习中使用的深度神经网络通常包括耦合到后端网络的前端网络,用于执行特征识别,该后端网络表示可基于提供给模型的特征表示来执行操作(例如,对象分类、语音识别等)的数学模型。深度学习使机器学习能够被执行而不需要对模型执行手工特征工程化。取而代之,深度神经网络可基于输入数据内的统计结构或相关性来学习特征。习得的特征可提供给数学模型,其可将所检测的特征映射到输出。网络使用的数学模型一般专门针对待执行的特定任务,并且不同的模型将用于执行不同任务。
146.一旦神经网络被构造,则学习模型可应用于网络来训练网络以执行特定任务。学习模型描述了如何调整模型内的权重来减少网络的输出误差。误差后向传播是用于训练神经网络的常见方法。向网络呈现输入向量以用于处理。使用损耗函数将网络的输出与期望输出比较并且对输出层中的神经元中的每个计算误差值。然后,误差值被向后传播直到每
个神经元具有相关联的误差值,其大致表示它对原始输出的贡献。然后,网络可使用算法(诸如随机梯度下降算法)从那些误差中学习,以更新神经网络的权重。
147.图9a
‑
9b示出示例性卷积神经网络。图9a示出cnn内的各种层。如在图9a中示出的,用于对图像处理建模的示例性cnn可接收输入908,其描述输入图像的红、绿和蓝(rgb)分量。输入902可被多个卷积层(例如,卷积层904、卷积层906)处理。来自多个卷积层的输出可以可选地被一组完全连接层908处理。完全连接层中的神经元具有到之前的层中的所有激活的完全连接,如之前针对前馈网络描述的那样。来自完全连接层908的输出可用于从网络生成输出结果。完全连接层908内的激活可使用矩阵乘法而不是卷积来计算。不是所有的cnn实现都利用完全连接层908。例如,在一些实现中,卷积层906能够为cnn生成输出。
148.卷积层稀疏连接,这与在完全连接层908中发现的传统神经网络配置不同。传统神经网络层完全连接,使得每个输出单元与每个输入单元交互。然而,如示出的,因为场的卷积的输出是到后续层的节点的输入(而不是场中的节点中的每个节点的相应状态值),所以卷积层稀疏连接。与卷积层相关联的内核执行卷积运算,其输出被发送给下一个层。在卷积层内执行的降维是使cnn能够放缩以处理大的图像的一个方面。
149.图9b示出cnn的卷积层内的示例性计算级。到cnn的卷积层912的输入可在卷积层914的三个级中被处理。这三个级可包括卷积级916、检测器级918和池化级920。然后,卷积层914可向连续卷积层输出数据。网络的最后的卷积层可生成输出特征图数据或向完全连接层提供输入,例如以对到cnn的输入生成分类值。
150.在卷积级916中并行执行若干卷积以产生一组线性激活。卷积级916可包括仿射变换,其是可规定作为线性变换加平移的任何变换。仿射变换包括这些变换的旋转、平移、缩放和组合。卷积级计算连接到输入中的特定区域的功能(例如,神经元)的输出,该特定区域可被确定作为与神经元相关联的局部区域。神经元计算神经元的权重与神经元连接到其的局部输入中的区域之间的点积。来自卷积级916的输出定义被卷积层914的连续级所处理的一组线性激活。
151.线性激活可被检测器级918处理。在检测器级918中,每个线性激活被非线性激活函数处理。该非线性激活函数使整体网络的非线性性质增加而不影响卷积层的相应场。可使用若干类型的非线性激活函数。一个特定类型是整流线性单元(relu),其使用定义为的激活函数,使得激活被阈值化在零。
152.池化级920使用池化函数,其用附近输出的汇总统计来代替卷积层906的输出。池化函数可用于将平移不变性引入神经网络,使得对输入的小的平移不改变池化输出。局部平移的不变性在输入数据中特征的存在比特征的精确位置更重要的情景中可以是有用的。在池化段920期间可使用各种类型的池化函数,其包括最大池化、平均池化和l2范数池化。另外,一些cnn实现不包括池化级。取而代之,这样的实现替代相对于之前的卷积级具有增加步幅的额外卷积级。
153.然后,来自卷积层914的输出可被下一个层922处理。下一个层922可以是额外卷积层或完全连接层908中的一个。例如,图9a的第一卷积层904可向第二卷积层906输出,而第二卷积层可向完全连接层908的第一层输出。
154.图10示出示例性递归神经网络1000。在递归神经网络(rnn)中,网络的之前的状态影响网络的当前状态的输出。rnn可使用各种函数用各种方式来构建。rnn的使用一般围绕
着使用数学模型以基于输入的先验序列预测未来。例如,给定之前的词序列,rnn可用于执行统计语言建模来预测即将到来的词。所示出的rnn 1000可描述为具有接收输入向量的输入层1002、实现递归功能的隐藏层1004、启用之前状态的
‘
记忆’的反馈机制1005和输出结果的输出层1006。rnn 1000基于时间步骤操作。rnn在给定时间步骤的状态基于之前的时间步骤经由反馈机制1005而受影响。对于给定时间步骤,隐藏层1004的状态由之前的状态和当前时间步骤的输入来定义。在第一时间步骤的初始输入(x1)可被隐藏层1004处理。第二输入(x2)可被隐藏层1004使用在初始输入(x1)的处理期间所确定的状态信息处理。给定状态可计算为,其中u和w是参数矩阵。函数f一般是非线性的,例如双曲正切函数(tanh)或整流函数的变型。然而,在隐藏层1004中使用的特定数学函数可根据rnn 1000的特定实现细节而变化。
155.除所描述的基本cnn和rnn网络外,可启用这些网络上的变化。一个示例rnn变型是长短期记忆(lstm)rnn。lstm rnn能够学习长期依赖性,其对于处理较长语言序列是必要的。关于cnn的变型是卷积深度信任网络,其具有与cnn相似的结构并且采用与深度信任网络相似的方式来训练。深度信任网络(dbn)是生成式神经网络,其由多层的概率性(随机)变量组成。dbn可使用贪婪的无监督学习而逐层训练。然后,dbn的习得权重可用于通过对神经网络确定权重的最佳初始集而提供预先训练神经网络。
156.图11示出深度神经网络的训练和部署。一旦已经为任务构造给定网络,就使用训练数据集1102来训练神经网络。已开发各种训练框架1104来启用训练过程的硬件加速。例如,图6的机器学习框架604可配置为训练框架604。训练框架604可钩入(hook into)未经训练的神经网络1106并且使该未经训练的神经网能够使用本文中描述的并行处理资源来训练以生成经训练的神经网1108。
157.为了开始训练过程,可随机或通过使用深度信任网络的预先训练来选择初始权重。然后,采用受监督或无监督方式执行训练循环。
158.受监督学习是其中训练作为介导(mediated)操作而执行的学习方法,诸如当训练数据集1102包括与输入的期望输出配对的输入时,或在训练数据集包括具有已知输出的输入并且神经网络的输出被人工分级的情况下。网络处理输入并且将所得的输出与一组预期或期望输出相比较。然后,误差通过系统被向后传播。训练框架1104可调整成调整控制未经训练的神经网络1106的权重。训练框架1104可提供工具来监测未经训练的神经网络1106在多大程度上向适合于基于已知输入数据生成正确应答的模型收敛。随着调整网络的权重来改善神经网络生成的输出,训练过程反复出现。训练过程可持续直到神经网络达到与经训练的神经网1108相关联的统计上期望的精确度。然后,可部署经训练的神经网络1108来实现任何数量的机器学习操作,以基于新数据1112的输入生成推理结果1114。
159.无监督学习是其中网络试图使用未标记的数据来训练它自己的学习方法。从而,对于无监督学习,训练数据集1102将包括输入数据而没有任何相关联的输出数据。未经训练的神经网络1106可学习未标记的输入内的分组并且可确定个体输入如何与整体数据集相关。无监督训练可用于生成自组织图,其是能够执行在数据的降维方面有用的操作的一类经训练的神经网络1108。无监督训练还可用于执行异常检测,其允许标识输入数据集中偏离数据的正常模式的数据点。
160.还可采用关于受监督和无监督训练的变化。半监督学习是其中训练数据集1102包括相同分布的标记和无标记数据的混合的技术。递增式学习是其中输入数据被持续用于进一步训练模型的受监督学习的变型。递增式学习使经训练的神经网络1108能够适合于新的数据1112而没有忘记初始训练期间网络内灌输的知识。
161.无论是受监督还是无监督,对于特别是深度神经网络的训练过程对于单个计算节点在计算上可能太密集。代替使用单个计算节点,计算节点的分布式网络可用于加速训练过程。
162.图12是示出分布式学习的框图。分布式学习是使用多个分布式计算节点来执行神经网络的受监督或无监督训练的训练模型。分布式计算节点可各自包括一个或多个主机处理器以及通用处理节点中的一个或多个,诸如,如图7中的高度并行通用图形处理单元700。如示出的,分布式学习可以是所执行的模型并行结构1202、数据并行结构1204或模型和数据并行结构1206的组合。
163.在模型并行结构1202中,分布式系统中的不同计算节点可对单个网络的不同部分执行训练计算。例如,神经网络的每个层可由分布式系统的不同处理节点训练。模型并行结构的益处包括放缩到尤其大模型的能力。拆分与神经网络的不同层相关联的计算启用了其中所有层的权重将不适合单个计算节点的存储器的这一非常大的神经网络的训练。在一些实例中,模型并行在执行大的神经网络的无监督训练中可特别有用。
164.在数据并行结构1204中,分布式网络的不同节点具有模型的完整实例并且每个节点接收数据的不同部分。然后,来自不同节点的结果组合。虽然不同的方法对于数据并行结构是可能的,但数据并行训练方法全部需要将结果组合并且使每个节点之间的模型参数同步的技术。组合数据的示例性方法包括参数平均和基于更新的数据并行结构。参数平均训练了训练数据子集上的每个节点并且将全局参数(例如,权重、偏置)设置成来自每个节点的参数的平均值。参数平均使用中央参数服务器,其维持参数数据。基于更新的数据并行结构与参数平均相似,不同之处在于对模型的更新被传输,而不是将来自节点的参数传输到参数服务器。另外,基于更新的数据并行结构可采用分散方式执行,其中更新被压缩并且在节点之间传输。
165.组合模型和数据并行结构1206可例如在其中每个计算节点包括多个gpu的分布式系统中实现。每个节点可具有模型的完整实例,其中每个节点内的独立gpu用于训练模型的不同部分。
166.分布式训练相对于在单个机器上的训练具有增加的开销。然而,本文中描述的并行处理器和gpgpu可各自实现各种技术来减少分布式训练的开销,这些技术包括实现高带宽gpu到gpu数据传输和加速远程数据同步的技术。
167.示例性机器学习应用机器学习可应用于解决各种技术问题,其包括但不限于计算机视觉、自主驾驶和导航、语音识别和语言处理。在传统上,计算机视觉已经是机器学习应用的最活跃研究领域之一。计算机视觉的应用范围从再现人类视觉能力(例如识别面部)到创建视觉能力的新类别而变化。例如,计算机视觉应用可配置成从视频中可见的对象中引发的振动中识别声波。并行处理器加速机器学习使计算机视觉应用能够使用比之前可行的明显更大的训练数据集来训练并且使推理系统能够使用低功率并行处理器来部署。
168.并行处理器加速机器学习具有自主驾驶应用,其包括车道和道路标志识别、障碍避免、导航和驾驶控制。加速机器学习技术可用于基于定义对特定训练输入的合适的响应的数据集来训练驾驶模型。本文中描述的并行处理器可对用于自主驾驶技术方案的日益复杂的神经网络实现快速训练并且在适合于集成到自主车辆内的移动平台中启用低功率推理处理器的部署。
169.并行处理器加速深度神经网络对自动语音识别(asr)启用机器学习方法。asr包括创建这样的函数,即:给定输入声序列,计算最可能的语言序列。使用深度神经网络的加速机器学习已经实现了对之前用于asr的隐藏马尔可夫模型(hmm)和高斯混合模型(gmm)的替换。
170.并行处理器加速机器学习还可用于加速自然语言处理。自动学习规程可利用统计推理算法来产生对错误或不熟悉输入具有鲁棒性的模型。示例性自然语言处理器应用包括人类语言之间的自动机器翻译。
171.用于机器学习的并行处理平台可分成训练平台和部署平台。训练平台一般是高度并行的并且包括优化,以加速多gpu单节点训练和多节点多gpu训练。适合于训练的示例性并行处理器包括图7的通用图形处理单元700和图8的多gpu计算系统800。相反,所部署的机器学习平台一般包括适合于用在诸如摄像机、自主机器人和自主车辆之类的产品的较低功率并行处理器。
172.图13示出适合于使用经训练的模型来执行推理的示例性推理片上系统(soc)1300。soc 1300可集成处理组件,其包括媒体处理器1302、视觉处理器1304、gpgpu 1306和多核处理器1308。gpgpu 1306可以是如本文中描述的gpgpu(诸如,gpgpu 700)并且多核处理器1308可以是本文中描述的多核处理器(诸如,多核处理器405
‑
406)。soc 1300可另外包括片上存储器1305,其可实现处理组件中的每个可访问的共享片上数据池。处理组件可对低功率操作优化以实现到各种机器学习平台的部署,其包括自主车辆和自主机器人。例如,soc 1300的一个实现可用作自主车辆的主控制系统的一部分。在soc 1300配置成供自主车辆使用的情况下,soc设计且配置成遵从部署管辖的相关功能安全标准。
173.在操作期间,媒体处理器1302和视觉处理器1304可一起(in concert)工作来加速计算机视觉操作。媒体处理器1302可实现多个高分辨率(例如,4k、8k)视频流的低时延解码。经解码的视频流可写入片上存储器1305中的缓冲器。然后,视觉处理器1304可对经解码的视频解析并且在准备使用经训练的图像识别模型准备处理帧时对经解码的视频的帧执行初步处理操作。例如,视觉处理器1304可针对用于在高分辨率视频数据上执行图像识别的cnn加速卷积运算,而后端模型计算由gpgpu 1306执行。
174.多核处理器1308可包括控制逻辑来帮助媒体处理器1302和视觉处理器1304所执行的数据传输和共享存储器操作的定序和同步。多核处理器1308还可充当应用处理器来执行可利用gpgpu 1306的推理计算能力的软件应用。例如,导航和驾驶逻辑的至少一部分可在多核处理器1308上执行的软件中实现。这样的软件可直接向gpgpu 1306发出计算工作负荷或可将计算工作负荷发出到多核处理器1308,该多核处理器1308可向gpgpu 1306卸载那些操作的至少一部分。
175.gpgpu 1306可包括计算集群,诸如通用图形处理单元700内的处理集群706a
‑
706h的低功率配置。gpgpu 1306内的计算集群可支持被专门优化以在经训练的神经网络上执行
推理计算的指令。例如,gpgpu 1306可支持执行诸如8位和4位整数向量运算之类的低精度计算的指令。
176.附加系统概述图14是处理系统1400的框图。图14的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。系统1400可用于单处理器台式计算机系统、多处理器工作站系统或具有大量处理器1402或处理器核1407的服务器系统中。系统1400可以是并入在供移动、手持式或嵌入式装置中(诸如在带有到局域或广域网的有线或无线连接性的物联网(iot)装置内)使用的片上系统(soc)集成电路内的处理平台。
177.系统1400可以是具有与图1的那些组件对应的组件的处理系统。例如,在不同的配置中,(一个或多个)处理器1402或(一个或多个)处理器核1407可与图1的(一个或多个)处理器102对应。(一个或多个)图形处理器1408可与图1的(一个或多个)并行处理器112对应。外部图形处理器1418可以是图1的(一个或多个)附加装置120之一。
178.系统1400可包括以下各项、与以下各项耦合或者被集成在以下各项内:基于服务器的游戏平台;游戏控制台,包括游戏和媒体控制台、移动游戏控制台、手持式游戏控制台或在线游戏控制台。系统1400可以是以下各项的一部分:移动电话、智能电话、平板计算装置或诸如带有低内部存储容量的膝上型计算机之类的移动因特网连接的装置。处理系统1400还可包括以下各项、与以下各项耦合或者被集成在以下各项内:可穿戴装置,诸如智能手表可穿戴装置;智能眼镜(smart eyewear)或服装,其用增强现实(ar)或虚拟现实(vr)特征来被增强以提供视觉、音频或触觉输出,以补充现实世界视觉、音频或触觉体验或者以其它方式提供文本、音频、图形、视频、全息图像或视频、或者触觉反馈;其它增强现实(ar)装置;或者其它虚拟现实(vr)装置。处理系统1400可包括电视或机顶盒装置,或者是电视或机顶盒装置的一部分。系统1400可包括以下各项、与以下各项耦合或者被集成在以下各项内:自动驾驶交通工具,诸如公共汽车、牵引车拖车、汽车、摩托车或电动自行车、飞机或滑翔机(或其任何组合)。自动驾驶交通工具可使用系统1400来处理在交通工具周围感测到的环境。
179.一个或多个处理器1402可包括一个或多个处理器核1407以处理指令,所述指令在被执行时,执行用于系统或用户软件的操作。一个或多个处理器核1407中的至少一个处理器核可被配置成处理特定指令集1409。指令集1409可促进复杂指令集计算(cisc)、精简指令集计算(risc)或经由超长指令字(vliw)的计算。一个或多个处理器核1407可处理不同指令集1409,所述指令集1409可包括用于促进对其它指令集的仿真的指令。处理器核1407还可包括其它处理装置,诸如数字信号处理器(dsp)。
180.处理器1402可包括高速缓冲存储器1404。取决于架构,处理器1402可具有单个内部高速缓存或多个级别的内部高速缓存。在一些实施例中,在处理器1402的各种组件之间共享高速缓冲存储器。在一些实施例中,处理器1402还使用外部高速缓存(例如,3级(l3)高速缓存或末级高速缓存(llc))(未示出),其可在使用已知高速缓存一致性技术的处理器核1407之间被共享。寄存器堆1406可另外被包括在处理器1402中,并且可包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针
寄存器)。一些寄存器可以是通用寄存器,而其它寄存器可特定于处理器1402的设计。
181.一个或多个处理器1402可与一个或多个接口总线1410耦合,以在处理器1402与系统1400中的其它组件之间传送通信信号,诸如地址、数据或控制信号。在这些实施例中的一个中,接口总线1410可以是处理器总线,诸如某一版本的直接媒体接口(dmi)总线。然而,处理器总线不限于dmi总线,并且可包括一个或多个外设组件互连总线(peripheral component interconnect bus)(例如,pci、pci express)、存储器总线或其它类型的接口总线。例如,(一个或多个)处理器1402可包括集成的存储器控制器1416和平台控制器集线器1430。存储器控制器1416促进存储器装置与系统1400的其它组件之间的通信,而平台控制器集线器(pch)1430经由本地i/o总线提供到i/o装置的连接。
182.存储器装置1420可以是动态随机存取存储器(dram)装置、静态随机存取存储器(sram)装置、闪速存储器装置、相变存储器装置或具有适合性能以充当进程存储器的某一其它存储器装置。存储器装置1420可例如作为用于系统1400的系统存储器进行操作,以存储数据1422和指令1421以供在一个或多个处理器1402执行应用或进程时使用。存储器控制器1416还与可选的外部图形处理器1418耦合,所述外部图形处理器1418可与处理器1402中的一个或多个图形处理器1408进行通信以执行图形和媒体操作。在一些实施例中,可由加速器1412协助图形、媒体和/或计算操作,所述加速器1412是可被配置成执行图形、媒体或计算操作的专门集合的协处理器。例如,加速器1412可以是用于优化机器学习或计算操作的矩阵乘法加速器。加速器1412可以是光线追踪加速器,其可被用于与图形处理器1408协同执行光线追踪操作。在一个实施例中,可替代加速器1412或与加速器1412协同使用外部加速器1419。
183.可提供显示装置1411,所述显示装置1411可连接到(一个或多个)处理器1402。显示装置1411可以是如在移动电子装置或膝上型装置中的内部显示装置或者经由显示接口(例如,displayport等)附连的外部显示装置中的一个或多个。显示装置1411可以是头戴式显示器(hmd),诸如供在虚拟现实(vr)应用或增强现实(ar)应用中使用的立体显示装置。
184.平台控制器集线器1430可使得外设能经由高速i/o总线连接到存储器装置1420和处理器1402。i/o外设包括但不限于音频控制器1446、网络控制器1434、固件接口1428、无线收发器1426、触摸传感器1425、数据存储装置1424(例如,非易失性存储器、易失性存储器、硬盘驱动器、闪速存储器、nand、3d nand、3d xpoint/optane等)。数据存储装置1424可经由存储接口(例如,sata)或经由诸如外设组件互连总线(例如,pci、pci express)之类的外设总线进行连接。触摸传感器1425可包括触摸屏传感器、压力传感器或指纹传感器。无线收发器1426可以是wi
‑
fi收发器、蓝牙收发器或诸如3g、4g、5g或长期演进(lte)收发器之类的移动网络收发器。固件接口1428能够实现与系统固件通信,并且可以是例如统一可扩展固件接口(uefi)。网络控制器1434可能够实现到有线网络的网络连接。在一些实施例中,高性能网络控制器(未示出)与接口总线1410耦合。音频控制器1446可以是多通道高清晰度音频控制器。在这些实施例中的一些中,系统1400包括用于将传统(legacy)(例如,个人系统2(ps/2))装置耦合到系统的可选的传统i/o控制器1440。平台控制器集线器1430还可连接到一个或多个通用串行总线(usb)控制器1442连接输入装置,诸如键盘和鼠标1443组合、相机1444或其它usb输入装置。
185.将领会的是,示出的系统1400是示例性的而非限制性的,因为以不同方式配置的
其它类型的数据处理系统也可被使用。例如,存储器控制器1416和平台控制器集线器1430的实例可被集成到分立的外部图形处理器(诸如,外部图形处理器1418)中。平台控制器集线器1430和/或存储器控制器1416可在一个或多个处理器1402的外部。例如,系统1400可包括外部存储器控制器1416和平台控制器集线器1430,其可被配置为与(一个或多个)处理器1402通信的系统芯片集内的存储器控制器集线器和外设控制器集线器。
186.例如,可使用电路板(“滑板(sled)”),将诸如cpu、存储器和其它组件之类的组件放置在所述滑板上,其被设计用于增加的热性能。诸如处理器之类的处理组件可位于滑板的顶侧上,而诸如dimm之类的近存储器位于滑板的底侧上。作为通过此设计提供的增强气流的结果,组件可比在典型系统中更高的频率和功率水平操作,由此增加性能。此外,滑板被配置成与机架中的功率和数据通信缆线盲配对,从而增强它们被快速移除、升级、重新安装和/或替换的能力。类似地,位于滑板上的各个组件(诸如处理器、加速器、存储器和数据存储驱动器)被配置成由于它们与彼此增加的间距而容易被升级。在说明性实施例中,组件另外包括硬件证明特征以证实其确实性(authenticity)。
187.数据中心可利用单个网络架构(“组构”),所述单个网络架构支持包括以太网和全路径(omni
‑
path)的多个其它网络架构。滑板可经由光纤被耦合到交换机,所述光纤提供比典型双绞线缆线(例如,类别5、类别5e、类别6等)更高的带宽和更低的时延。由于高带宽、低时延互连和网络架构,数据中心可使用在物理上解聚的池资源(诸如存储器、加速器(例如,gpu、图形加速器、fpga、asic、神经网络和/或人工智能加速器等)以及数据存储驱动器),并且在按照需要的基础上将它们提供到计算资源(例如,处理器),使得计算资源能访问池化资源(pooled resource),如同池化资源是本地的那样。
188.电力供应或电源可将电压和/或电流提供到本文中描述的系统1400或任何组件或系统。在一个示例中,电力供应包括用于插入到壁装电源插座的ac到dc(交流到直流)适配器。此类ac电力可以是可再生能源(例如,太阳能)电源。在一个示例中,电源包括dc电源,诸如外部ac到dc转换器。电源或电力供应还可包括无线充电硬件以经由接近充电场进行充电。电源可包括内部电池、交流供应、基于运动的电力供应、太阳能供应或燃料电池源。
189.图15a
‑
15c示出了计算系统和图形处理器。图15a
‑
15c的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。
190.图15a是处理器1500的框图,其可以是处理器1402中的一个的变型并且可代替这些处理器之一使用。因此,本文中任何特征与处理器1500的组合的公开也公开了与(一个或多个)处理器1402的对应组合,但不限于此。处理器1500可具有一个或多个处理器核1502a
‑
1502n、集成存储器控制器1514和集成图形处理器1508。在排除集成图形处理器1508的情况下,包括该处理器的系统将包括系统芯片集内或经由系统总线耦合的图形处理器装置。处理器1500可包括另外的核,所述另外的核多达并且包括由虚线框表示的另外的核1502n。处理器核1502a
‑
1502n中的每个处理器核包括一个或多个内部高速缓存单元1504a
‑
1504n。在一些实施例中,每个处理器核1502a
‑
1502n还可访问一个或多个共享高速缓存单元1506。内部高速缓存单元1504a
‑
1504n和共享高速缓存单元1506表示处理器1500内的高速缓冲存储器层级。高速缓冲存储器层级可包括每个处理器核内的至少一级的指令和数据高速缓存,
以及一级或多级的共享中间级高速缓存,诸如2级(l2)、3级(l3)、4级(l4)或其它级的高速缓存,其中在外部存储器前的最高级的高速缓存被分类为llc。在一些实施例中,高速缓存一致性逻辑维持各种高速缓存单元1506与1504a
‑
1504n之间的一致性。
191.处理器1500还可包括系统代理核1510和一个或多个总线控制器单元1516的集合。一个或多个总线控制器单元1516管理外设总线的集合,诸如一个或多个pci或pci express总线。系统代理核1510提供用于各种处理器组件的管理功能性。系统代理核1510可包括一个或多个集成存储器控制器1514以管理对各种外部存储器装置(未示出)的访问。
192.例如,处理器核1502a
‑
1502n中的一个或多个处理器核可包括对同时多线程的支持。系统代理核1510包括用于在多线程的处理期间协调和操作核1502a
‑
1502n的组件。系统代理核1510可另外包括功率控制单元(pcu),所述功率控制单元(pcu)包括用于调节处理器核1502a
‑
1502n和图形处理器1508的功率状态的逻辑和组件。
193.处理器1500可另外包括用于执行图形处理操作的图形处理器1508。在这些实施例中的一些中,图形处理器1508与包括一个或多个集成存储器控制器1514的系统代理核1510和共享高速缓存单元1506的集合耦合。系统代理核1510还可包括用于将图形处理器输出驱动到一个或多个耦合的显示器的显示控制器1511。显示控制器1511还可以是经由至少一个互连与图形处理器耦合的单独模块,或者可被集成在图形处理器1508内。
194.基于环的互连单元1512可被用于耦合处理器1500的内部组件。然而,可使用备选互连单元,诸如点对点互连、交换互连或其它技术,包括本领域中公知的技术。在具有基于环的互连1512的这些实施例中的一些中,图形处理器1508经由i/o链路1513与基于环的互连1512耦合。
195.示例性i/o链路1513表示多个种类的i/o互连中的至少一个,包括促进各种处理器组件与诸如edram模块的高性能嵌入式存储器模块1518之间的通信的封装上i/o互连。可选地,处理器核1502a
‑
1502n中的每个处理器核和图形处理器1508可使用嵌入式存储器模块1518作为共享末级高速缓存。
196.处理器核1502a
‑
1502n可例如是执行相同指令集架构的同质核(homogenous core)。备选地,处理器核1502a
‑
1502n在指令集架构(isa)方面是异质的(heterogeneous),其中处理器核1502a
‑
1502n中的一个或多个处理器核执行第一指令集,而其它核中的至少一个核执行第一指令集的子集或不同指令集。处理器核1502a
‑
1502n可在微架构方面是异质的,其中具有相对更高功耗的一个或多个核与具有更低功耗的一个或多个功率核耦合。作为另一示例,处理器核1502a
‑
1502n在计算能力方面是异质的。另外,处理器1500可在一个或多个芯片上被实现,或者被实现为除其它组件外还具有示出的组件的soc集成电路。
197.图15b是根据本文中描述的一些实施例的图形处理器核1519的硬件逻辑的框图。有时被称为核切片(core slice)的图形处理器核1519可以是模块化图形处理器内的一个或多个图形核。图形处理器核1519是一个图形核切片的示例,并且如本文中所描述的图形处理器可包括基于目标功率和性能包络(performance envelope)的多个图形核切片。每个图形处理器核1519可包括与也称为子切片的多个子核1521a
‑
1521f耦合的固定功能块1530,所述多个子核1521a
‑
1521f包括通用和固定功能逻辑的模块化块。
198.固定功能块1530可包括几何/固定功能流水线1531,所述几何/固定功能流水线1531可例如在更低性能/或更低功率图形处理器实现中由图形处理器核1519中的所有子核
共享。几何/固定功能流水线1531可包括3d固定功能流水线(例如,如下述图16a中的3d流水线1612)、视频前端单元、线程派生器(thread spawner)和线程分派器(thread dispatcher)以及管理统一返回缓冲器(unified return buffer)(例如,如下所述的在图17中的统一返回缓冲器1718)的统一返回缓冲器管理器。
199.固定功能块1530还可包括图形soc接口1532、图形微控制器1533和媒体流水线1534。图形soc接口1532提供图形处理器核1519与片上系统集成电路内的其它处理器核之间的接口。图形微控制器1533是可编程子处理器,其可被配置成管理图形处理器核1519的各种功能,包括线程分派、调度和抢占(pre
‑
emption)。媒体流水线1534(例如,图16a和图17的媒体流水线1616)包括用于促进包括图像和视频数据的多媒体数据的解码、编码、预处理和/或后处理的逻辑。媒体流水线1534经由对子核1521a
‑
1521f内的计算或采样逻辑的请求来实现媒体操作。
200.soc接口1532可使得图形处理器核1519可与通用应用处理器核(例如,cpu)和/或soc内的其它组件通信,所述soc内的其它组件包括诸如共享末级高速缓冲存储器、系统ram和/或嵌入式片上或封装上dram的存储器层级元件。soc接口1532还可能够实现与soc内的固定功能装置(诸如,相机成像流水线)的通信,并且能够实现全局存储器原子的使用和/或实现全局存储器原子,所述全局存储器原子可在图形处理器核1519与soc内的cpu之间被共享。soc接口1532还能够实现用于图形处理器核1519的功率管理控制,并且能够实现图形核1519的时钟域与soc内的其它时钟域之间的接口。可选地,soc接口1532能够实现接收来自命令流播器和全局线程分派器的命令缓冲器,所述命令缓冲器被配置成向图形处理器内的一个或多个图形核中的每个图形核提供命令和指令。命令和指令可在要执行媒体操作时被分派到媒体流水线1534,或者在要执行图形处理操作时被分派到几何和固定功能流水线(例如,几何和固定功能流水线1531、几何和固定功能流水线1537)。
201.图形微控制器1533可被配置成执行用于图形处理器核1519的各种调度和管理任务。在一个配置中,图形微控制器1533可例如在子核1521a
‑
1521f内的执行单元(eu)阵列1522a
‑
1522f、1524a
‑
1524f内的各种图形并行引擎上执行图形和/或计算工作负载调度。在此工作负载调度中,在包括图形处理器核1519的soc的cpu核上执行的主机软件可将工作负载提交给多个图形处理器门铃(graphic processor doorbell)中的一个,这调用在适当图形引擎上的调度操作。调度操作包括确定接下来要运行哪个工作负载,向命令流播器提交工作负载、对在引擎上运行的现有工作负载进行抢占、监测工作负载的进展、以及在工作负载完成时通知主机软件。可选地,图形微控制器1533还可促进用于图形处理器核1519的低功率或空闲状态,从而为图形处理器核1519提供独立于操作系统和/或系统上的图形驱动器软件跨低功率状态转变来对图形处理器核1519内的寄存器进行保存和恢复的能力。
202.图形处理器核1519可具有多于或少于示出的子核1521a
‑
1521f,多达n个的模块化子核。对于n个子核的每个集合,图形处理器核1519还可包括共享功能逻辑1535、共享和/或高速缓冲存储器1536、几何/固定功能流水线1537以及用于加速各种图形和计算处理操作的另外的固定功能逻辑1538。共享功能逻辑1535可包括与图17的共享功能逻辑1720相关联的逻辑单元(例如,采样器、数学和/或线程间通信逻辑),所述逻辑单元可由图形处理器核1519内的每n个子核共享。共享和/或高速缓冲存储器1536可以是用于图形处理器核1519内的n个子核1521a
‑
1521f的集合的末级高速缓存,并且还可充当可由多个子核访问的共享存
储器。几何/固定功能流水线1537可代替固定功能块1530内的几何/固定功能流水线1531而被包括并且可包括相同或类似的逻辑单元。
203.图形处理器核1519可包括另外的固定功能逻辑1538,其可包括供图形处理器核1519使用的各种固定功能加速逻辑。可选地,另外的固定功能逻辑1538包括供在仅位置着色中使用的另外的几何流水线。在仅位置着色中,存在两个几何流水线:几何/固定功能流水线1538、1531内的完全几何流水线;以及拣选流水线(cull pipeline),其是可被包括在另外的固定功能逻辑1538内的另外的几何流水线。例如,拣选流水线可以是完全几何流水线的裁减版本(trimmed down version)。完全流水线和拣选流水线可执行相同应用的不同实例,每个实例具有单独的上下文。仅位置着色可隐藏被丢弃三角形的长拣选运行,使得在一些实例中能更早完成着色。例如,另外的固定功能逻辑1538内的拣选流水线逻辑可执行与主应用并行的位置着色器,并且一般比完全流水线更快生成关键结果,因为拣选流水线仅对顶点的位置属性进行提取并着色,而不向帧缓冲器执行像素的栅格化和渲染。拣选流水线可使用生成的关键结果来计算用于所有三角形的可见性信息,而不考虑那些三角形是否被拣选。完全流水线(其在此实例中可被称为重放流水线)可消耗可见性信息以跳过被拣选的三角形,以仅对最终被传递到栅格化阶段的可见三角形进行着色。
204.可选地,另外的固定功能逻辑1538还可包括诸如固定功能矩阵乘法逻辑之类的机器学习加速逻辑,以用于包括针对机器学习训练或推理的优化的实现。
205.在每个图形子核1521a
‑
1521f内包括执行资源的集合,其可被用于响应于图形流水线、媒体流水线或着色器程序的请求而执行图形、媒体和计算操作。图形子核1521a
‑
1521f包括多个eu阵列1522a
‑
1522f、1524a
‑
1524f、线程分派和线程间通信(td/ic)逻辑1523a
‑
1523f、3d(例如,纹理)采样器1525a
‑
1525f、媒体采样器1506a
‑
1506f、着色器处理器1527a
‑
1527f及共享本地存储器(slm)1528a
‑
1528f。eu阵列1522a
‑
1522f、1524a
‑
1524f各自包括多个执行单元,所述多个执行单元是能够为图形、媒体或计算操作(包括图形、媒体或计算着色器程序)服务而执行浮点和整数/定点逻辑运算的通用图形处理单元。td/ic逻辑1523a
‑
1523f执行用于子核内的执行单元的本地线程分派和线程控制操作,并且促进在子核的执行单元上执行的线程之间的通信。3d采样器1525a
‑
1525f可将纹理或其它3d图形有关数据读取到存储器中。3d采样器可基于配置的样本状态和与给定纹理相关联的纹理格式以不同方式读取纹理数据。媒体采样器1506a
‑
1506f可基于与媒体数据相关联的类型和格式来执行类似的读取操作。例如,每个图形子核1521a
‑
1521f可交替包括统一3d和媒体采样器。在子核1521a
‑
1521f中的每个子核内的执行单元上执行的线程可利用每个子核内的共享本地存储器1528a
‑
1528f,以使得在线程群组内执行的线程能使用片上存储器的公共池来执行。
206.图15c是根据本文中描述的实施例的可被配置为图形处理器(例如,图形处理器1508)和/或计算加速器的通用图形处理单元(gpgpu)1570的框图。gpgpu 1570可经由一个或多个系统和/或存储器总线与主机处理器(例如,一个或多个cpu 1546)和存储器1571、1572互连。存储器1571可以是可与一个或多个cpu 1546共享的系统存储器,而存储器1572是专用于gpgpu 1570的装置存储器。例如,装置存储器1572和gpgpu 1570内的组件可被映射到一个或多个cpu 1546可访问的存储器地址中。可经由存储器控制器1568来促进对存储器1571和1572的访问。存储器控制器1568可包括内部直接存储器存取(dma)控制器1569,或
者可包括逻辑以执行在其它情况下将由dma控制器执行的操作。
207.gpgpu 1570包括多个高速缓冲存储器,包括l2高速缓存1553、l1高速缓存1554、指令高速缓存1555和共享存储器1556,该共享存储器1556的至少一部分也可被分区为高速缓冲存储器。gpgpu 1570还包括多个计算单元1560a
‑
1560n。每个计算单元1560a
‑
1560n包括向量寄存器1561、标量寄存器1562、向量逻辑单元1563和标量逻辑单元1564的集合。计算单元1560a
‑
1560n还可包括本地共享存储器1565和程序计数器1566。计算单元1560a
‑
1560n可与常量高速缓存1567耦合,该常量高速缓存1567可被用于存储常量数据,所述常量数据是在gpgpu 1570上执行的内核或着色器程序的运行期间将不改变的数据。常量高速缓存1567可以是标量数据高速缓存,并且经高速缓存的(cached)数据可被直接提取到标量寄存器1562中。
208.在操作期间,一个或多个cpu 1546可将命令写入已被映射到可访问地址空间中的gpgpu 1570中的寄存器或存储器中。命令处理器1557可从寄存器或存储器读取命令,并且确定将在gpgpu 1570内如何处理那些命令。然后线程分派器1558可被用于将线程分派到计算单元1560a
‑
1560n,以执行那些命令。每个计算单元1560a
‑
1560n可独立于其它计算单元执行线程。另外,每个计算单元1560a
‑
1560n可被独立配置用于有条件的计算,并且可有条件地将计算的结果输出到存储器。在提交的命令完成时,命令处理器1557可中断一个或多个cpu 1546。
209.图16a
‑
16c例如根据图15a
‑
15c示出了由本文中描述的实施例提供的另外的图形处理器和计算加速器架构的框图。图16a
‑
16c的与本文中任何其它图的元件具有相同或类似的名称的元件描述与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同组件并且可链接到其它实体,如本文中其它地方所描述的那些那样,但不限于此。
210.图16a是图形处理器1600的框图,该图形处理器1600可以是分立的图形处理单元,或者可以是与多个处理核集成的图形处理器,或诸如但不限于存储器装置或网络接口的其它半导体装置。图形处理器1600可以是图形处理器1508的变型并且可代替图形处理器1508使用。因此,本文中任何特征与图形处理器1508的组合的公开也公开了与图形处理器1600的对应组合,但不限于此。图形处理器可经由到图形处理器上的寄存器的存储器映射i/o接口并且利用被放置到处理器存储器中的命令进行通信。图形处理器1600可包括用于访问存储器的存储器接口1614。存储器接口1614可以是到本地存储器、一个或多个内部高速缓存、一个或多个共享外部高速缓存和/或到系统存储器的接口。
211.可选地,图形处理器1600还包括用于将显示输出数据驱动到显示装置1618的显示控制器1602。显示控制器1602包括用于一个或多个覆盖平面的硬件,以用于显示和组合用户接口元素或视频的多个层。显示装置1618可以是内部或外部显示装置。在一个实施例中,显示装置1618是头戴式显示装置,诸如虚拟现实(vr)显示装置或增强现实(ar)显示装置。图形处理器1600可包括视频编解码器引擎1606以将媒体编码成一个或多个媒体编码格式、从一个或多个媒体编码格式将媒体解码、或者在一个或多个媒体编码格式之间对媒体进行转码,所述编码格式包括但不限于运动图像专家组(mpeg)格式(诸如,mpeg
‑
2)、高级视频编码(avc)格式(诸如,h.264/mpeg
‑
4 avc、h.265/hevc)、开放媒体联盟(aomedia)vp8、vp9以及电影与电视工程师协会(smpte)421m/vc
‑
1和联合图像专家组(jpeg)格式(诸如,jpeg)以
及运动jpeg(mjpeg)格式。
212.图形处理器1600可包括用于执行二维(2d)栅格化器操作(包括例如位边界块传送)的块图像传送(blit)引擎1604。然而,备选地,可使用图形处理引擎(gpe)1610的一个或多个组件来执行2d图形操作。在一些实施例中,gpe 1610是用于执行包括三维(3d)图形操作和媒体操作的图形操作的计算引擎。
213.gpe 1610可包括用于执行3d操作的3d流水线1612,所述3d操作诸如使用作用于3d图元形状(例如,矩形、三角形等)的处理功能来渲染三维图像和场景。3d流水线1612包括可编程和固定功能元件,所述可编程和固定功能元件在元件内执行各种任务和/或派生(spawn)到3d/媒体子系统1615的执行线程。虽然3d流水线1612可被用于执行媒体操作,但gpe 1610的实施例还包括特别用于执行媒体操作(诸如,视频后处理和图像增强)的媒体流水线1616。
214.媒体流水线1616可包括固定功能或可编程逻辑单元以代替或者代表视频编解码器引擎1606来执行一个或多个专用媒体操作,诸如视频解码加速、视频去交织和视频编码加速。媒体流水线1616另外可包括线程派生单元以派生用于在3d/媒体子系统1615上执行的线程。派生的线程在3d/媒体子系统1615中包括的一个或多个图形执行单元上执行用于媒体操作的计算。
215.3d/媒体子系统1615可包括用于执行由3d流水线1612和媒体流水线1616派生的线程的逻辑。流水线可将线程执行请求发送到3d/媒体子系统1615,所述3d/媒体子系统1615包括线程分派逻辑,所述线程分派逻辑可用于将各种请求仲裁(arbitrate)并分派到可用线程执行资源。执行资源包括用于处理3d和媒体线程的图形执行单元的阵列。3d/媒体子系统1615可包括用于线程指令和数据的一个或多个内部高速缓存。附加地,3d/媒体子系统1615还可包括共享存储器,所述共享存储器包括寄存器和可寻址存储器,以在线程之间共享数据并且存储输出数据。
216.图16b示出了图形处理器1620,其是图形处理器1600的变型并且可代替图形处理器1600使用,并且反之亦然。因此,本文中任何特征与图形处理器1600的组合的公开也公开了与图形处理器1620的对应组合,但不限于此。图形处理器1620根据本文中描述的实施例具有拼贴(tiled)架构。图形处理器1620可包括图形处理引擎集群1622,所述图形处理引擎集群1622在图形引擎贴片1610a
‑
1610d内具有图16a的图形处理引擎1610的多个实例。每个图形引擎贴片1610a
‑
1610d可经由贴片互连1623a
‑
1623f的集合而被互连。每个图形引擎贴片1610a
‑
1610d还可经由存储器互连1625a
‑
1625d被连接到存储器模块或存储器装置1626a
‑
1626d。存储器装置1626a
‑
1626d可使用任何图形存储器技术。例如,存储器装置1626a
‑
1626d可以是图形双倍数据率(gddr)存储器。存储器装置1626a
‑
1626d可以是高带宽存储器(hbm)模块,其可与其相应图形引擎贴片1610a
‑
1610d一起在管芯上。存储器装置1626a
‑
1626d可以是是堆叠存储器装置,其可被堆叠在其相应图形引擎贴片1610a
‑
1610d之上。如图24b
‑
24d中进一步详细描述的,每个图形引擎贴片1610a
‑
1610d和相关联存储器1626a
‑
1626d可驻留在单独的小芯片上,所述小芯片被接合到基础管芯或基础衬底。
217.图形处理器1620可配置有非统一存储器访问(numa)系统,其中存储器装置1626a
‑
1626d与相关联的图形引擎贴片1610a
‑
1610d耦合。给定的存储器装置可能会被图形引擎贴片而不是直接与其连接的贴片访问。然而,当访问本地贴片时,对存储器装置1626a
‑
1626d
的访问时延可以是最低的。在一个实施例中,启用了高速缓存一致性numa(ccnuma)系统,该系统使用贴片互连1623a
‑
1623f来启用图形引擎贴片1610a
‑
1610d内的高速缓存控制器之间的通信,以在多于一个高速缓存存储相同存储器位置时保持一致的存储器图像。
218.图形处理引擎集群1622可与片上或封装上组构互连1624连接。组构互连1624可能够实现在图形引擎贴片1610a
‑
1610d与诸如视频编解码器1606和一个或多个复制引擎1604的组件之间的通信。复制引擎1604可被用于将数据移出以下各项、将数据移入以下各项以及在以下各项之间移动数据:存储器装置1626a
‑
1626d和在图形处理器1620外的存储器(例如,系统存储器)。组构互连1624还可被用于互连图形引擎贴片1610a
‑
1610d。图形处理器1620可以可选地包括用于能够实现与外部显示装置1618的连接的显示控制器1602。图形处理器还可被配置为图形或计算加速器。在加速器配置中,可省略显示控制器1602和显示装置1618。
219.图形处理器1620可经由主机接口1628连接到主机系统。主机接口1628可能够实现在图形处理器1620、系统存储器和/或其它系统组件之间的通信。主机接口1628可例如是pci express总线或另一类型的主机系统接口。
220.图16c示出了根据本文中描述的实施例的计算加速器1630。计算加速器1630可包括与图16b的图形处理器1620的架构类似性并且被优化用于计算加速。计算引擎集群1632可包括计算引擎贴片1640a
‑
1640d的集合,其包括被优化用于并行或基于向量的通用计算操作的执行逻辑。计算引擎贴片1640a
‑
1640d可不包括固定功能图形处理逻辑,虽然在一些实施例中,计算引擎贴片1640a
‑
1640d中的一个或多个计算引擎贴片可包括用于执行媒体加速的逻辑。计算引擎贴片1640a
‑
1640d可经由存储器互连1625a
‑
1625d连接到存储器1626a
‑
1626d。存储器1626a
‑
1626d和存储器互连1625a
‑
1625d可以是与在图形处理器1620中类似的技术,或者可以是不同的。图形计算引擎贴片1640a
‑
1640d还可经由贴片互连1623a
‑
1623f的集合被互连,并且可与组构互连1624连接和/或通过组构互连1624被互连。在一个实施例中,计算加速器1630包括可被配置为装置范围高速缓存的大的l3高速缓存1636。计算加速器1630还可以以与图16b的图形处理器1620类似的方式经由主机接口1628连接到主机处理器和存储器。
221.图形处理引擎图17是根据一些实施例的图形处理器的图形处理引擎1710的框图。图形处理引擎(gpe)1710可以是图16a中示出的gpe 1610的某一版本,并且还可表示图16b的图形引擎贴片1610a
‑
1610d。图17的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。例如,在图17中还示出了图16a的3d流水线1612和媒体流水线1616。媒体流水线1616在gpe 1710的一些实施例中是可选的,并且可未被显式地包括在gpe 1710内。例如并且在至少一个实施例中,单独的媒体和/或图像处理器被耦合到gpe 1710。
222.gpe 1710可与命令流播器1703耦合或者包括该命令流播器1703,该命令流播器1703将命令流提供到3d流水线1612和/或媒体流水线1616。备选地或附加地,命令流播器1703可直接耦合到统一返回缓冲器1718。统一返回缓冲器1718可通信地耦合到图形核阵列1714。可选地,命令流播器1703与存储器耦合,所述存储器可以是系统存储器,或内部高速
缓冲存储器和共享高速缓冲存储器中的一个或多个。命令流播器1703可接收来自存储器的命令,并且将命令发送到3d流水线1612和/或媒体流水线1616。命令是从存储用于3d流水线1612和媒体流水线1616的命令的环形缓冲器提取的指令(directive)。环形缓冲器可另外包括存储批量的多个命令的批量命令缓冲器。用于3d流水线1612的命令还可包括对在存储器中存储的数据(诸如但不限于用于3d流水线1612的顶点和几何数据和/或用于媒体流水线1616的图像数据和存储器对象)的引用。3d流水线1612和媒体流水线1616通过经由相应流水线内的逻辑执行操作或者通过将一个或多个执行线程分派到图形核阵列1714来处理命令和数据。图形核阵列1714可包括图形核(例如,(一个或多个)图形核1715a、(一个或多个)图形核1715b)的一个或多个块,每个块包括一个或多个图形核。每个图形核包括:图形执行资源的集合,其包括用于执行图形和计算操作的通用和图形特定执行逻辑;以及固定功能纹理处理和/或机器学习和人工智能加速逻辑。
223.在各种实施例中,3d流水线1612可包括用于通过处理指令并且将执行线程分派到图形核阵列1714来处理一个或多个着色器程序(诸如,顶点着色器、几何着色器、像素着色器、片段着色器、计算着色器或其它着色器程序)的固定功能和可编程逻辑。图形核阵列1714提供执行资源的统一块以供在处理这些着色器程序中使用。图形核阵列1714的(一个或多个)图形核1715a
‑
1715b内的多用途执行逻辑(例如,执行单元)包括对各种3d api着色器语言的支持,并且可执行与多个着色器相关联的多个同时执行线程。
224.图形核阵列1714可包括用于执行媒体功能(诸如,视频和/或图像处理)的执行逻辑。执行单元可包括通用逻辑,该通用逻辑可编程以除图形处理操作外还执行并行通用计算操作。该通用逻辑可与在图14的(一个或多个)处理器核1407或如图15a中的核1502a
‑
1502n内的通用逻辑并行或结合地执行处理操作。
225.由在图形核阵列1714上执行的线程生成的输出数据可将数据输出到在统一返回缓冲器(urb)1718中的存储器。urb 1718可存储用于多个线程的数据。urb 1718可被用于在图形核阵列1714上执行的不同线程之间发送数据。urb 1718可另外被用于在图形核阵列上的线程与在共享功能逻辑1720内的固定功能逻辑之间的同步。
226.可选地,图形核阵列1714可以是可缩放的,使得该阵列包括可变数量的图形核,这些图形核各自基于gpe 1710的目标功率和性能水平而具有可变数量的执行单元。执行资源可以是动态可缩放的,使得可按照需要启用或禁用执行资源。
227.图形核阵列1714与共享功能逻辑1720耦合,该共享功能逻辑1720包括在图形核阵列中的图形核之间共享的多个资源。在共享功能逻辑1720内的共享功能是硬件逻辑单元,所述硬件逻辑单元将专用补充功能性提供到图形核阵列1714。在各种实施例中,共享功能逻辑1720包括但不限于采样器1721、数学1722和线程间通信(itc)1723逻辑。另外,可实现在共享功能逻辑1720内的一个或多个高速缓存1725。
228.至少在其中对给定专用功能的需求不足以包括在图形核阵列1714内的情况下,实现共享功能。相反,该专用功能的单个实例化被实现为在共享功能逻辑1720中的独立实体,并且在图形核阵列1714内的执行资源之间被共享。在图形核阵列1714之间被共享并且包括在图形核阵列1714内的功能的精确集合跨实施例而变化。由图形核阵列1714广泛使用的共享功能逻辑1720内的特定共享功能可被包括在图形核阵列1714内的共享功能逻辑1716内。可选地,图形核阵列1714内的共享功能逻辑1716可包括共享功能逻辑1720内的一些或全部
逻辑。可在图形核阵列1714的共享功能逻辑1716内重复共享功能逻辑1720内的全部逻辑元件。备选地,排除了共享功能逻辑1720以有利于图形核阵列1714内的共享功能逻辑1716。
229.执行单元图18a
‑
18b示出了根据本文中描述的实施例的线程执行逻辑1800,其包括在图形处理器核中采用的处理元件的阵列。图18a
‑
18b的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。图18a
‑
18b示出了线程执行逻辑1800的概述,该线程执行逻辑1800可代表利用图15b的每个子核1521a
‑
1521f示出的硬件逻辑。图18a代表通用图形处理器内的执行单元,而图18b代表可在计算加速器内使用的执行单元。
230.如在图18a中所示出的,线程执行逻辑1800可包括着色器处理器1802、线程分派器1804、指令高速缓存1806、包括多个执行单元1808a
‑
1808n的可缩放执行单元阵列、采样器1810、共享本地存储器1811、数据高速缓存1812和数据端口1814。可选地,可缩放执行单元阵列可通过基于工作负载的计算要求来启用或禁用一个或多个执行单元(例如,执行单元1808a、1808b、1808c、1808d到1808n
‑
1和1808n中的任何执行单元)来动态地进行缩放。被包括的组件可经由链接到组件中的每个组件的互连组构被互连。线程执行逻辑1800可包括通过指令高速缓存1806、数据端口1814、采样器1810和执行单元1808a
‑
1808n中的一个或多个到存储器(诸如,系统存储器或高速缓冲存储器)的一个或多个连接。每个执行单元(例如,1808a)可以是独立可编程通用计算单元,其能执行多个同时硬件线程,同时为每个线程并行处理多个数据元素。在各种实施例中,执行单元1808a
‑
1808n的阵列是可缩放的,以包括任何数量的各个执行单元。
231.执行单元1808a
‑
1808n可主要被用于执行着色器程序。着色器处理器1802可处理各种着色器程序,并且经由线程分派器1804分派与着色器程序相关联的执行线程。线程分派器可包括用于对来自图形和媒体流水线的线程发起请求进行仲裁并且在一个或多个执行单元1808a
‑
1808n上实例化所请求的线程的逻辑。例如,几何流水线可将顶点、曲面细分或几何着色器分派到线程执行逻辑以用于处理。可选地,线程分派器1804还可处理来自在执行的着色器程序的运行时间线程派生请求。
232.执行单元1808a
‑
1808n可支持指令集,所述指令集包括对许多标准3d图形着色器指令的本机支持,使得来自图形库(例如,direct 3d和opengl)的着色器程序以最小的转化被执行。执行单元支持顶点和几何处理(例如,顶点程序、几何程序、顶点着色器)、像素处理(例如,像素着色器、片段着色器)和通用处理(例如,计算和媒体着色器)。执行单元1808a
‑
1808n中的每个执行单元能进行多发布(multi
‑
issue)单指令多数据(simd)执行,并且多线程操作在面临更高时延存储器访问时能够实现高效的执行环境。每个执行单元内的每个硬件线程具有专用高带宽寄存器堆和相关联的独立线程状态。执行是对能进行整数、单精度和双精度浮点运算、simd分支能力、逻辑运算、超越运算和其它杂项运算的流水线的每时钟多发布。在等待来自存储器或共享功能之一的数据时,执行单元1808a
‑
1808n内的依赖性逻辑促使在等待的线程进行休眠,直到所请求的数据已被返回为止。当在等待的线程正在休眠时,硬件资源可专用于处理其它线程。例如,在与顶点着色器操作相关联的延迟期间,执行单元可执行用于像素着色器、片段着色器或另一类型的着色器程序(包括不同顶点着色
器,诸如图21中所示的顶点着色器2107)的操作。各种实施例可应用于:通过作为使用simd的备选方案或者除使用simd之外还使用单指令多线程(simt)来使用执行。对simd核或操作的引用也可应用于simt或者应用于与simt组合的simd。
233.执行单元1808a
‑
1808n中的每个执行单元对数据元素的阵列进行操作。数据元素的数量是“执行大小”或指令的通道的数量。执行通道是用于指令内的数据元素访问、掩蔽(masking)和流控制的执行的逻辑单元。通道的数量可独立于特定图形处理器的物理算术逻辑单元(alu)、浮点单元(fpu)或其它逻辑单元(例如,张量核、光线追踪核等)的数量。附加地,执行单元1808a
‑
1808n可支持整数和浮点数据类型。
234.执行单元指令集包括simd指令。各种数据元素可作为打包数据类型存储在寄存器中,并且执行单元将基于元素的数据大小来处理各种元素。例如,在对256位宽向量进行操作时,向量的256位被存储在寄存器中,并且执行单元对作为四个单独的184位打包数据元素(四字(qw)大小数据元素)、八个单独的32位打包数据元素(双字(dw)大小数据元素)、十六个单独的16位打包数据元素(字(w)大小数据元素)或三十二个单独的8位数据元素(字节(b)大小数据元素)的向量进行操作。然而,不同向量宽度和寄存器大小是可能的。
235.可选地,一个或多个执行单元可被组合成具有线程控制逻辑(1807a
‑
1807n)的融合的执行单元1809a
‑
1809n,所述线程控制逻辑(1807a
‑
1807n)对于融合的eu是公共的。多个eu可被融合成eu群组。融合的eu群组中的每个eu可被配置成执行单独的simd硬件线程。融合的eu群组中eu的数量可根据实施例而变化。另外,可每eu执行各种simd宽度,包括但不限于simd8、simd16和simd32。每个融合的图形执行单元1809a
‑
1809n包括至少两个执行单元。例如,融合的执行单元1809a包括第一eu 1808a、第二eu 1808b以及线程控制逻辑1807a,该线程控制逻辑1807a对第一eu 1808a和第二eu 1808b是公共的。线程控制逻辑1807a控制在融合的图形执行单元1809a上执行的线程,允许融合的执行单元1809a
‑
1809n内的每个eu使用公共指令指针寄存器来执行。
236.线程执行逻辑1800中包括一个或多个内部指令高速缓存(例如,1806)以对用于执行单元的线程指令进行高速缓存。在线程执行逻辑1800中可包括一个或多个数据高速缓存(例如,1812)以在线程执行期间对线程数据进行高速缓存。在执行逻辑1800上执行的线程还可在共享本地存储器1811中存储显式管理的数据。可包括采样器1810以提供3d操作的纹理采样和媒体操作的媒体采样。采样器1810可包括专用纹理或媒体采样功能性,以在向执行单元提供采样的数据前在采样过程期间处理纹理或媒体数据。
237.在执行期间,图形和媒体流水线经由线程派生和分派逻辑向线程执行逻辑1800发送线程发起请求。一旦几何对象的群组已被处理并且栅格化成像素数据,着色器处理器1802内的像素处理器逻辑(例如,像素着色器逻辑、片段着色器逻辑等)便被调用于进一步计算输出信息,并且使结果被写入到输出表面(例如,颜色缓冲器、深度缓冲器、模板缓冲器等)。像素着色器或片段着色器可计算要跨栅格化对象内插的各种顶点属性的值。着色器处理器1802内的像素处理器逻辑然后可执行应用编程接口(api)供应的像素或片段着色器程序。为了执行着色器程序,着色器处理器1802经由线程分派器1804向执行单元(例如,1808a)分派线程。着色器处理器1802可使用采样器1810中的纹理采样逻辑来访问存储在存储器中的纹理映射中的纹理数据。对纹理数据和输入几何数据的算术运算为每个几何片段计算像素颜色数据,或者丢弃一个或多个像素而不进行进一步处理。
238.此外,数据端口1814可提供存储器访问机制,以便线程执行逻辑1800将经处理的数据输出至存储器以用于在图形处理器输出流水线上进一步处理。数据端口1814可包括或者耦合到一个或多个高速缓冲存储器(例如,数据高速缓存1812)来对数据进行高速缓存以用于经由数据端口1814的存储器访问。
239.可选地,执行逻辑1800还可包括光线追踪器1805,所述光线追踪器1805可提供光线追踪加速功能性。光线追踪器1805可支持包括用于光线生成的指令/功能的光线追踪指令集。该光线追踪指令集可与由图3c中的光线追踪核372支持的光线追踪指令集类似或不同。
240.图18b示出了执行单元1808的示例性内部细节。图形执行单元1808可包括指令提取单元1837、通用寄存器堆阵列(grf)1824、架构寄存器堆阵列(arf)1826、线程仲裁器1822、发送单元1830、分支单元1832、simd浮点单元(fpu)1834的集合以及可选地包括专用整数simd alu 1835的集合。grf 1824和arf 1826包括与可在图形执行单元1808中是活动的每个同时硬件线程相关联的通用寄存器堆和架构寄存器堆的集合。在arf 1826中可维持每线程架构状态,而在线程执行期间使用的数据被存储在grf 1824中。每个线程的执行状态(包括用于每个线程的指令指针)可被保持在arf 1826中的线程特定寄存器中。
241.图形执行单元1808可具有这样的架构,该架构是同时多线程(smt)和细粒度交错多线程(imt)的组合。该架构可具有模块化配置,可在设计时基于每执行单元的寄存器的数量和同时线程的目标数量来对所述模块化配置进行微调,其中执行单元资源跨用于执行多个同时线程的逻辑被划分。可由图形执行单元1808执行的逻辑线程的数量不限于硬件线程的数量,并且多个逻辑线程可被指派到每个硬件线程。
242.可选地,图形执行单元1808可共同发布多个指令,所述多个指令各自可以是不同的指令。图形执行单元线程1808的线程仲裁器1822可将指令分派给发送单元1830、分支单元1832或(一个或多个)simd fpu 1834中的一个以用于执行。每个执行线程可访问grf 1824内的128个通用寄存器,其中每个寄存器可存储32个字节,其可作为32位数据元素的simd 8元素向量访问。每个执行单元线程可访问grf 1824内的4千字节,虽然实施例不限于此,并且在其它实施例中可提供更多或更少的寄存器资源。图形执行单元1808可被分区成可独立执行计算操作的七个硬件线程,虽然每执行单元的线程的数量还可根据实施例而变化。例如,可支持多达16个硬件线程。在示例性实施例中,其中七个线程可访问4千字节,grf 1824可存储总共28千字节。在另一示例性实施例中,在16个线程可访问4千字节的情况下,grf 1824可存储总共64千字节。然而,每执行单元的线程的数量不限于这些示例并且可多于或少于给定的数量。灵活的寻址模式可允许对寄存器一起进行寻址以有效地构建更宽的寄存器或者表示跨步矩形块数据结构(strided rectangular block data structure)。
243.附加地或备选地,可经由通过消息传递发送单元1830执行的“发送”指令来分派存储器操作、采样器操作和其它较长时延系统通信。可将分支指令分派给专用分支单元1832以促进simd发散和最终收敛。
244.图形执行单元1808可包括一个或多个simd浮点单元((一个或多个)fpu)1834以执行浮点运算。(一个或多个)fpu 1834还可支持整数计算。在一些实例中,(一个或多个)fpu 1834可simd执行多达m个数量的32位浮点(或整数)运算,或者simd执行多达2m个16位整数或16位浮点运算。可选地,(一个或多个)fpu中的至少一个提供扩展的数学能力以支持高吞
吐量超越数学函数和双精度184位浮点。还可存在8位整数simd alu 1835的集合,并且8位整数simd alu 1835的集合可被特别地优化以执行与机器学习计算相关联的操作。
245.可选地,图形执行单元1808的多个实例的阵列可在图形子核分组(例如,子切片)中被实例化。为了可缩放性,产品架构师可选定每子核分组的执行单元的确切数量。执行单元1808可跨多个执行通道执行指令。此外,在图形执行单元1808上执行的每个线程可以是在不同的通道上被执行的。
246.图19示出了另外的示例性执行单元1900。图19的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。执行单元1900可以是供在例如如图16c中的计算引擎贴片1640a
‑
1640d中使用的计算优化的执行单元,但不限于此。执行单元1900还可用于如图16b中的图形引擎贴片1610a
‑
1610d中。执行单元1900可包括线程控制单元1901、线程状态单元1902、指令提取/预提取单元1903和指令解码单元1904。执行单元1900另外包括寄存器堆1906,所述寄存器堆1906存储可被指派到执行单元内的硬件线程的寄存器。执行单元1900另外包括发送单元1907和分支单元1908。发送单元1907和分支单元1908可与图18b的图形执行单元1808的发送单元1830和分支单元1832类似地操作。
247.执行单元1900还包括计算单元1910,所述计算单元1910包括多个不同类型的功能单元。计算单元1910还可包括alu单元1911,所述alu单元1911包括算术逻辑单元的阵列。alu单元1911可被配置成执行64位、32位和16位整数和浮点运算。整数和浮点运算可同时被执行。计算单元1910还可包括脉动阵列1912和数学单元1913。脉动阵列1912包括可用于以脉动方式执行向量或其它数据并行操作的数据处理单元的宽度w和深度d的网络。脉动阵列1912可被配置成执行矩阵运算,诸如矩阵点积运算。脉动阵列1912可支持16位浮点运算及8位和4位整数运算。脉动阵列1912可被配置成加速机器学习操作。脉动阵列1912可被配置有对bfloat16(16位浮点格式)的支持。可包括数学单元1913来以高效和比alu单元1911更低功率的方式执行数学运算的特定子集。数学单元1913可包括在由描述的其它实施例提供的图形处理引擎的共享功能逻辑中找到的数学逻辑(例如,图17的共享功能逻辑1720的数学逻辑1722)。数学单元1913可被配置成执行32位和64位浮点运算。
248.线程控制单元1901包括用于控制执行单元内线程的执行的逻辑。线程控制单元1901可包括用于开始、停止和抢占执行单元1900内线程的执行的线程仲裁逻辑。线程状态单元1902可用于为被指派在执行单元1900上执行的线程存储线程状态。在执行单元1900内存储线程状态能够实现在线程变为阻塞或空闲时那些线程的快速抢占。指令提取/预提取单元1903可从更高级别执行逻辑的指令高速缓存(例如,如图18a中的指令高速缓存1806)提取指令。指令提取/预提取单元1903还可基于当前在执行的线程的分析来发布对要被加载到指令高速缓存中的指令的预提取请求。指令解码单元1904可被用于解码要由计算单元执行的指令。指令解码单元1904可被用作次级解码器以将复杂指令解码成组成的微操作(constituent micro
‑
operation)。
249.执行单元1900另外包括可由在执行单元1900上执行的硬件线程使用的寄存器堆1906。可跨用于执行在执行单元1900的计算单元1910内的多个同时线程的逻辑来划分寄存器堆1906中的寄存器。可由图形执行单元1900执行的逻辑线程的数量不限于硬件线程的数
量,并且多个逻辑线程可被指派到每个硬件线程。寄存器堆1906的大小可基于支持的硬件线程的数量跨实施例而变化。寄存器重命名可被用于动态地将寄存器分配到硬件线程。
250.图20是示出图形处理器指令格式2000的框图。图形处理器执行单元支持具有采用多种格式的指令的指令集。实线框示出了一般被包括在执行单元指令中的组成部分,而虚线包括可选的或者仅被包括在指令的子集中的组成部分。描述和示出的指令格式2000是宏指令,因为它们是供应给执行单元的指令,而与一旦指令被处理由指令解码产生的微操作相反。
251.如本文中所述的图形处理器执行单元可本机地支持采用128位指令格式2010的指令。基于所选择的指令、指令选项和操作数的数量,64位压缩指令格式2030可用于一些指令。本机128位指令格式2010提供对所有指令选项的访问,而采用64位格式2030,一些选项和操作被限制。采用64位格式2030的可用的本机指令随实施例而变化。使用索引字段2013中索引值的集合来部分地压缩指令。执行单元硬件基于索引值来引用压缩表的集合,并且使用压缩表输出来重构采用128位指令格式2010的本机指令。可使用指令的其它大小和格式。
252.对于每种格式,指令操作码2012定义执行单元要执行的操作。执行单元跨每个操作数的多个数据元素并行执行每个指令。例如,响应于相加指令,执行单元跨表示纹理元素或图片元素的每个颜色通道来执行同时加法运算。默认情况下,执行单元跨操作数的所有数据通道来执行每个指令。指令控制字段2014可能够实现对诸如通道选择(例如,断定(predication))和数据通道次序(例如,搅混(swizzle))之类的某些执行选项的控制。对于采用128位指令格式2010的指令,执行大小字段2016限制将被并行执行的数据通道的数量。执行大小字段2016可能不可供64位压缩指令格式2030中使用。
253.一些执行单元指令具有多达三个操作数,这三个操作数包括两个源操作数src0 2020、src1 2022和一个目的地2018。执行单元可支持双目的地指令,其中目的地中的一个是隐含的。数据操纵指令可具有第三源操作数(例如,src2 2024),其中指令操作码2012确定源操作数的数量。指令的最后源操作数可以是利用指令传递的立即(例如,硬编码的)值。
254.128位指令格式2010可包括访问/地址模式字段2026,该访问/地址模式字段2026指定例如使用直接寄存器寻址模式还是间接寄存器寻址模式。在使用直接寄存器寻址模式时,由指令中的位来直接提供一个或多个操作数的寄存器地址。
255.128位指令格式2010还可包括访问/地址模式字段2026,该访问/地址模式字段2026指定指令的地址模式和/或访问模式。访问模式可被用于定义指令的数据访问对齐。可支持包括16字节对齐的访问模式和1字节对齐的访问模式的访问模式,其中访问模式的字节对齐确定指令操作数的访问对齐。例如,当处于第一模式中时,指令可将字节对齐的寻址用于源操作数和目的地操作数,并且当处于第二模式中时,指令可将16字节对齐的寻址用于所有源操作数和目的地操作数。
256.访问/地址模式字段2026的地址模式部分可确定指令要使用直接寻址还是间接寻址。在使用直接寄存器寻址模式时,指令中的位直接提供一个或多个操作数的寄存器地址。在使用间接寄存器寻址模式时,可基于指令中的地址立即字段和地址寄存器值来计算一个或多个操作数的寄存器地址。
257.基于操作码2012位字段可对指令进行分组,以简化操作码解码2040。对于8位操作
码,4、5和6位允许执行单元确定操作码的类型。所示出的精确操作码分组仅是示例。移动和逻辑操作码群组2042可包括数据移动和逻辑指令(例如,移动(mov)、比较(cmp))。移动和逻辑群组2042可共享五个最高有效位(msb),其中移动(mov)指令采用0000xxxxb的形式,并且逻辑指令采用0001xxxxb的形式。流控制指令群组2044(例如调用、跳(jmp))包括采用0010xxxxb(例如,0x20)形式的指令。杂项指令群组2046包括指令的混合,包括采用0011xxxxb(例如,0x30)形式的同步指令(例如等待、发送)。并行数学指令群组2048包括采用0100xxxxb(例如,0x40)的形式的逐组成部分的算术指令(例如,加、乘(mul))。并行数学群组2048跨数据通道并行执行算术运算。向量数学群组2050包括采用0101xxxxb(例如,0x50)形式的算术指令(例如,dp4)。向量数学群组对向量操作数执行诸如点积计算的算术。示出的操作码解码2040在一个实施例中可用于确定执行单元的哪个部分将被用于执行解码的指令。例如,一些指令可被指定为将由脉动阵列执行的脉动指令。诸如光线追踪指令(未示出)的其它指令可被路由到执行逻辑的切片或分区内的光线追踪核或光线追踪逻辑。
258.图形流水线图21是根据另一实施例的图形处理器2100的框图。图21的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。
259.图形处理器2100可包括不同类型的图形处理流水线,诸如几何流水线2120、媒体流水线2130、显示引擎2140、线程执行逻辑2150和渲染输出流水线2170。图形处理器2100可以是包括一个或多个通用处理核的多核处理系统内的图形处理器。可通过对一个或多个控制寄存器(未示出)的寄存器写入或者经由通过环形互连2102发布至图形处理器2100的命令来控制图形处理器。环形互连2102可将图形处理器2100耦合到其它处理组件,诸如其它图形处理器或通用处理器。来自环形互连2102的命令由命令流播器2103解译,该命令流播器2103将指令供应至几何流水线2120或媒体流水线2130的各个组件。
260.命令流播器2103可指导顶点提取器2105的操作,该顶点提取器2105从存储器读取顶点数据,并执行由命令流播器2103提供的顶点处理命令。顶点提取器2105可将顶点数据提供给顶点着色器2107,该顶点着色器2107对每个顶点执行坐标空间变换和照明操作。顶点提取器2105和顶点着色器2107可通过经由线程分派器2131向执行单元2152a
‑
2152b分派执行线程来执行顶点处理指令。
261.执行单元2152a
‑
2152b可以是具有用于执行图形和媒体操作的指令集的向量处理器的阵列。执行单元2152a
‑
2152b可具有附连的l1高速缓存2151,所述l1高速缓存2151对于每个阵列是特定的,或者在阵列之间被共享。高速缓存能被配置为数据高速缓存、指令高速缓存或被分区以在不同分区中包含数据和指令的单个高速缓存。
262.几何流水线2120可包括曲面细分组件以执行3d对象的硬件加速的曲面细分。可编程外壳着色器(programmable hull shader)2111可配置曲面细分操作。可编程域着色器2117可提供曲面细分输出的后端评估。曲面细分器2113可在外壳着色器2111的指导下进行操作,并且包含专用逻辑以基于作为到几何流水线2120的输入而提供的粗略几何模型来生成详细的几何对象的集合。此外,如果未使用曲面细分,则可绕过曲面细分组件(例如,外壳着色器2111、曲面细分器2113和域着色器2117)。
263.完整几何对象可由几何着色器2119经由分派给执行单元2152a
‑
2152b的一个或多个线程来处理,或者可直接行进至剪辑器(clipper)2129。几何着色器可对整个几何对象进行操作,而不是如在图形流水线的先前阶段中对顶点或顶点的补片(patch)进行操作。如果曲面细分被禁用,则几何着色器2119接收来自顶点着色器2107的输入。几何着色器2119可由几何着色器程序可编程以在曲面细分单元被禁用时执行几何曲面细分。
264.在栅格化前,剪辑器2129处理顶点数据。剪辑器2129可以是具有剪辑和几何着色器功能的可编程剪辑器或固定功能剪辑器。渲染输出流水线2170中的栅格化器和深度测试组件2173可分派像素着色器以将几何对象转换成逐像素表示。像素着色器逻辑可被包括在线程执行逻辑2150中。可选地,应用可绕过栅格化器和深度测试组件2173,并且经由流出单元2123访问未栅格化的顶点数据。
265.图形处理器2100具有允许数据和消息在处理器的主要组件之间传递的互连总线、互连组构或某种其它互连机构。在一些实施例中,执行单元2152a
‑
2152b和相关联的逻辑单元(例如,l1高速缓存2151、采样器2154、纹理高速缓存2158等)经由数据端口2156互连,以执行存储器访问并且与处理器的渲染输出流水线组件进行通信。采样器2154、高速缓存2151、2158和执行单元2152a
‑
2152b可各自具有单独的存储器访问路径。可选地,纹理高速缓存2158还可被配置为采样器高速缓存。
266.渲染输出流水线2170可包含栅格化器和深度测试组件2173,该栅格化器和深度测试组件2173将基于顶点的对象转换成相关联的基于像素的表示。栅格化器逻辑可包括用于执行固定功能三角形和线栅格化的窗口化器(windower)/掩蔽器单元。相关联的渲染高速缓存2178和深度高速缓存2179在一些实施例中也是可用的。像素操作组件2177对数据执行基于像素的操作,尽管在一些实例中,与2d操作相关联的像素操作(例如,带有混合(blending)的位块图像传送)由2d引擎2141执行,或者在显示时由显示控制器2143使用覆盖显示平面代替。共享l3高速缓存2175可能对于全部图形组件是可用的,从而允许在不使用主系统存储器的情况下共享数据。
267.图形处理器媒体流水线2130可包括媒体引擎2137和视频前端2134。视频前端2134可接收来自命令流播器2103的流水线命令。媒体流水线2130可包括单独的命令流播器。视频前端2134可在将命令发送至媒体引擎2137之前处理媒体命令。媒体引擎2137可包括线程派生功能性来派生线程,以便经由线程分派器2131分派到线程执行逻辑2150。
268.图形处理器2100可包括显示引擎2140。显示引擎2140可在处理器2100的外部,并且可经由环形互连2102或某一其它互连总线或组构与图形处理器耦合。显示引擎2140可包括2d引擎2141和显示控制器2143。显示引擎2140可包含能独立于3d流水线操作的专用逻辑。显示控制器2143可与显示装置(未示出)耦合,该显示装置可以是系统集成的显示装置(如在膝上型计算机中),或者可以是经由显示装置连接器附连的外部显示装置。
269.几何流水线2120和媒体流水线2130可能可配置成基于多个图形和媒体编程接口执行操作,并且不特定于任何一个应用编程接口(api)。用于图形处理器的驱动器软件可将特定于特定图形或媒体库的api调用转化成可由图形处理器处理的命令。可为全部来自khronos group的开放图形库(opengl)、开放计算语言(opencl)和/或vulkan图形和计算api提供支持。还可为来自微软公司的direct3d库提供支持。可支持这些库的组合。还可为开源计算机视觉库(opencv)提供支持。如果可进行从未来api的流水线到图形处理器的流
水线的映射,则具有兼容3d流水线的未来api也将被支持。
270.图形流水线编程图22a是示出用于对图形处理流水线进行编程的图形处理器命令格式2200的框图,所述图形处理流水线诸如例如本文中结合图16a、17、21描述的流水线。图22b是示出根据实施例的图形处理器命令序列2210的框图。图22a中的实线框示出了一般被包括在图形命令中的组成部分,而虚线包括可选的或者仅被包括在图形命令的子集中的组成部分。图22a的示例性图形处理器命令格式2200包括用于标识命令的客户端2202、命令操作代码(操作码)2204和数据2206的数据字段。一些命令中还包括子操作码2205和命令大小2208。
271.客户端2202可指定处理命令数据的图形装置的客户端单元。图形处理器命令解析器可检查每个命令的客户端字段以调节命令的进一步处理,并且将命令数据路由到适当的客户端单元。图形处理器客户端单元可包括存储器接口单元、渲染单元、2d单元、3d单元和媒体单元。每个客户端单元可具有处理命令的对应处理流水线。一旦由客户端单元接收到命令,客户端单元便读取操作码2204和子操作码2205(如果子操作码2205存在的话),以确定要执行的操作。客户端单元使用数据字段2206中的信息来执行命令。对于一些命令,预期显式命令大小2208来指定命令的大小。命令解析器可基于命令操作码来自动确定至少一些命令的大小。可经由双字的倍数来对齐命令。还可使用其它命令格式。
272.图22b中的流程示出了示例性图形处理器命令序列2210。以示例性图形处理器为特征的数据处理系统的软件或固件可使用所示出的命令序列的版本来设立、执行和终止图形操作的集合。仅出于示例的目的示出并描述了样本命令序列,并且样本命令序列不限于这些特定命令或此命令序列。另外,命令可作为命令序列中的批量命令被发布,使得图形处理器将至少部分并发地处理命令的序列。
273.图形处理器命令序列2210可以以流水线转储清除命令2212开始,以促使任何活动的图形流水线完成该流水线的当前未决命令。可选地,3d流水线2222和媒体流水线2224可不并发地操作。执行流水线转储清除以促使活动的图形流水线完成任何未决命令。响应于流水线转储清除,图形处理器的命令解析器将暂停命令处理,直至活动的绘图引擎完成未决操作并且相关的读取高速缓存失效。可选地,可将渲染高速缓存中标记为“脏”的任何数据转储清除到存储器。流水线转储清除命令2212可被用于流水线同步,或者在将图形处理器置于低功率状态前被使用。
274.在命令序列要求图形处理器在流水线之间显式地切换时,可使用流水线选择命令2213。除非上下文要为两个流水线发布命令,否则在发布流水线命令前,可在执行上下文内仅要求一次流水线选择命令2213。紧接经由流水线选择命令2213的流水线切换之前,可要求流水线转储清除命令2212。
275.流水线控制命令2214可配置图形流水线以用于操作,并且可被用于对3d流水线2222和媒体流水线2224进行编程。流水线控制命令2214可配置活动的流水线的流水线状态。流水线控制命令2214可被用于流水线同步,并且在处理一批命令前从活动的流水线内的一个或多个高速缓冲存储器中清除数据。
276.返回缓冲器状态命令2216可被用于为相应流水线配置返回缓冲器的集合以写入数据。一些流水线操作要求分配、选择或配置一个或多个返回缓冲器,在处理期间这些操作将中间数据写入到所述一个或多个返回缓冲器。图形处理器还可使用一个或多个返回缓冲
器来存储输出数据并且执行跨线程通信。返回缓冲器状态2216可包括选择要用于流水线操作的集合的返回缓冲器的大小和数量。
277.命令序列中的剩余命令基于用于操作的活动流水线而不同。基于流水线确定2220,将命令序列定制到以3d流水线状态2230开始的3d流水线2222或者从媒体流水线状态2240开始的媒体流水线2224。
278.用于配置3d流水线状态2230的命令包括3d状态设置命令,所述3d状态设置命令用于在处理3d图元命令之前要配置的顶点缓冲器状态、顶点元素状态、恒定颜色状态、深度缓冲器状态以及其它状态变量。至少部分基于使用中的特定3d api来确定这些命令的值。如果将不使用某些流水线元件,则3d流水线状态2230命令还可能能够选择性地禁用或绕过那些元件。
279.3d图元2232命令可被用于提交要由3d流水线处理的3d图元。经由3d图元2232命令传递到图形处理器的命令和相关联的参数被转发到图形流水线中的顶点提取功能。顶点提取功能使用3d图元2232命令数据来生成顶点数据结构。顶点数据结构被存储在一个或多个返回缓冲器中。3d图元2232命令可被用于经由顶点着色器对3d图元执行顶点操作。为处理顶点着色器,3d流水线2222将着色器执行线程分派到图形处理器执行单元。
280.可经由执行2234命令或事件来触发3d流水线2222。寄存器可写入触发命令执行。可经由命令序列中的“go”或“kick”命令来触发执行。可使用流水线同步命令来触发命令执行以转储清除通过图形流水线的命令序列。3d流水线将执行3d图元的几何处理。一旦操作完成,所得到的几何对象便被栅格化,并且像素引擎对所得到的像素进行上色。对于那些操作,还可包括用于控制像素着色和像素后端操作的另外的命令。
281.在执行媒体操作时,图形处理器命令序列2210可沿着媒体流水线2224路径。一般而言,用于媒体流水线2224的编程的特定使用和方式取决于要执行的媒体或计算操作。可在媒体解码期间将特定媒体解码操作卸载到媒体流水线。还可绕过媒体流水线,并且可使用由一个或多个通用处理核提供的资源来全部或部分地执行媒体解码。媒体流水线还可包括用于通用图形处理器单元(gpgpu)操作的元件,其中图形处理器被用于使用计算着色器程序来执行simd向量运算,所述计算着色器程序与图形图元的渲染不是显式相关的。
282.以与3d流水线2222类似的方式可对媒体流水线2224进行配置。将用于配置媒体流水线状态2240的命令的集合分派或放置到在媒体对象命令2242之前的命令队列中。用于媒体流水线状态2240的命令可包括用于配置媒体流水线元件的数据,所述媒体流水线元件将被用于处理媒体对象。这包括用于配置媒体流水线内的视频解码和视频编码逻辑的数据,诸如编码和解码格式。用于媒体流水线状态2240的命令还可支持使用到包含一批状态设置的“间接”状态元素的一个或多个指针。
283.媒体对象命令2242可将指针供应到媒体对象以便由媒体流水线处理。媒体对象包括存储器缓冲器,所述存储器缓冲器包含要处理的视频数据。可选地,在发布媒体对象命令2242之前,所有媒体流水线状态必须是有效的。一旦配置了流水线状态,并且将媒体对象命令2242排队,便经由执行命令2244或等效执行事件(例如,寄存器写入)来触发媒体流水线2224。然后可通过由3d流水线2222或媒体流水线2224提供的操作对来自媒体流水线2224的输出进行后处理。可以以与媒体操作类似的方式配置和执行gpgpu操作。
284.图形软件架构
图23示出了用于数据处理系统2300的示例性图形软件架构。这样的软件架构可包括3d图形应用2310、操作系统2320和至少一个处理器2330。处理器2330可包括图形处理器2332和一个或多个通用处理器核2334。处理器2330可以是处理器1402或本文中所述处理器中的任何其它处理器的变型。处理器2330可代替处理器1402或本文中所述处理器中的任何其它处理器使用。因此,任何特征与处理器1402或本文中所述处理器中的任何其它处理器的组合的公开也公开了与图形处理器2330的对应组合,但不限于此。此外,图23的与本文中任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。图形应用2310和操作系统2320各自在数据处理系统的系统存储器2350中执行。
285.3d图形应用2310可包含一个或多个着色器程序,该一个或多个着色器程序包括着色器指令2312。着色器语言指令可采用高级着色器语言,诸如direct3d的高级着色器语言(hlsl)或opengl着色器语言(glsl)等等。应用还可包括采用适合由通用处理器核2334执行的机器语言的可执行指令2314。应用还可包括由顶点数据定义的图形对象2316。
286.操作系统2320可以是来自微软公司的microsoft
®ꢀ
windows
®
操作系统、专有的类unix操作系统或使用linux内核的变型的开源类unix操作系统。操作系统2320可支持图形api 2322,诸如direct3d api、opengl api或vulkan api。direct3d api在使用中时,操作系统2320使用前端着色器编译器2324来将采用hlsl的任何着色器指令2312编译成更低级着色器语言。编译可以是即时(jit)编译或者应用可执行着色器预编译。在3d图形应用2310的编译期间可将高级着色器编译成低级着色器。可以以中间形式(诸如,由vulkan api使用的标准可移植中间表示(spir)的版本)提供着色器指令2312。
287.用户模式图形驱动器2326可包含用于将着色器指令2312转换成硬件特定表示的后端着色器编译器2327。opengl api在使用中时,将采用glsl高级语言的着色器指令2312传递到用户模式图形驱动器2326以用于编译。用户模式图形驱动器2326可使用操作系统内核模式功能2328来与内核模式图形驱动器2329通信。内核模式图形驱动器2329可与图形处理器2332通信以分派命令和指令。
288.ip核实现一个或多个方面可由存储在机器可读介质上的代表性代码来实现,该代表性代码表示和/或定义诸如处理器的集成电路内的逻辑。例如,机器可读介质可包括表示处理器内的各种逻辑的指令。在由机器读取时,指令可促使机器制作逻辑以执行本文中描述的技术。称为“ip核”的此类表示是用于集成电路的逻辑的可重复使用单元,该可重复使用单元可作为对集成电路的结构进行描述的硬件模型而被存储在有形机器可读介质上。可将硬件模型供应至各种客户或制造设施,所述客户或制造设施将硬件模型加载在制造集成电路的制作机器上。可制作集成电路,使得电路执行与本文中描述的实施例中的任何实施例相关联的所描述的操作。
289.图24a是示出根据实施例的可被用于制造集成电路以执行操作的ip核开发系统2400的框图。ip核开发系统2400可被用于生成可被并入到更大的设计中或被用于构造完整集成电路(例如,soc集成电路)的模块化、可重复使用设计。设计设施2430可生成采用高级编程语言(例如,c/c++)的ip核设计的软件仿真2410。软件仿真2410可被用于使用仿真模型
2412来设计、测试和验证ip核的行为。仿真模型2412可包括功能、行为和/或时序仿真。然后可从仿真模型2412创建或合成寄存器传送级(rtl)设计2415。rtl设计2415是对硬件寄存器之间的数字信号流进行建模的集成电路的行为的抽象,包括使用建模的数字信号执行的相关联的逻辑。除rtl设计2415外,还可创建、设计或合成处于逻辑级或晶体管级的较低级设计。因此,初始设计和仿真的特定细节可变化。
290.可由设计设施将rtl设计2415或等效物进一步合成为硬件模型2420,该硬件模型2420可采用硬件描述语言(hdl)或物理设计数据的某种其它表示。可进一步对hdl进行仿真或测试以验证ip核设计。可使用非易失性存储器2440(例如,硬盘、闪速存储器或任何非易失性存储介质)来存储ip核设计以用于递送到第三方制作设施2465。备选的是,可通过有线连接2450或无线连接2460(例如,经由因特网)来传送ip核设计。制作设施2465然后可制作至少部分基于ip核设计的集成电路。制作的集成电路可被配置成执行根据本文中描述的至少一个实施例的操作。
291.图24b示出了集成电路封装组装件2470的截面侧视图。集成电路封装组装件2470示出了如本文中描述的一个或多个处理器或加速器装置的实现。封装组装件2470包括连接到衬底2480的硬件逻辑2472、2474的多个单元。逻辑2472、2474可至少部分地以可配置逻辑或固定功能性逻辑硬件实现,并且可包括本文中描述的(一个或多个)处理器核、(一个或多个)图形处理器或其它加速器装置中的任何装置的一个或多个部分。逻辑2472、2474的每个单元可在半导体管芯内被实现,并且经由互连结构2473与衬底2480耦合。互连结构2473可被配置成在逻辑2472、2474与衬底2480之间路由电信号,并且可包括互连,该互连诸如但不限于凸块(bump)或柱。互连结构2473可被配置成路由电信号,诸如,例如与逻辑2472、2474的操作相关联的输入/输出(i/o)信号和/或功率或接地信号。可选地,衬底2480可以是环氧基层压衬底(epoxy
‑
based laminate substrate)。衬底2480还可包括其它合适类型的衬底。封装组装件2470可经由封装互连2483被连接到其它电气装置。封装互连2483可被耦合到衬底2480的表面,以将电信号路由到其它电气装置,诸如主板、其它芯片集或多芯片模块。
292.逻辑2472、2474的单元可与桥2482电耦合,该桥2482被配置成在逻辑2472、2474之间路由电信号。桥2482可以是为电信号提供路线(route)的密集互连结构。桥2482可包括由玻璃或合适的半导体材料构成的桥衬底。可在桥衬底上形成电路由部件(electrical routing feature),以在逻辑2472、2474之间提供芯片到芯片连接。
293.虽然示出了逻辑2472、2474的两个单元和桥2482,但是本文中描述的实施例可包括在一个或多个管芯上的更多或更少逻辑单元。由于当逻辑被包括在单个管芯上时可排除桥2482,因此可通过零个或多于零个桥来连接一个或多个管芯。备选的是,可通过一个或多个桥来连接多个管芯或逻辑单元。另外,在其它可能配置(包括三维配置)中可将多个逻辑单元、管芯和桥连接在一起。
294.图24c示出了包括连接到衬底2480(例如,基础管芯)的硬件逻辑小芯片的多个单元的封装组装件2490。如本文中描述的图形处理单元、并行处理器和/或计算加速器可由单独制造的多样化的硅小芯片构成。在此上下文中,小芯片是至少部分封装的集成电路,其包括可与其它小芯片被组装到更大封装中的逻辑的不同单元。带有不同ip核逻辑的小芯片的多样化集合可被组装到单个装置中。另外,可使用有源中介层(interposer)技术将小芯片
集成到基础管芯或基础小芯片中。本文中描述的概念能够实现gpu内的不同形式的ip之间的互连和通信。可使用不同工艺技术来制造并且在制造期间构成ip核,这避免了将多个ip(特别是在带有若干特点(flavors)ip的大的soc上)汇聚到相同制造工艺的复杂性。能够实现多个工艺技术的使用改进了推向市场的时间,并且提供了创建多个产品sku的有成本效益的方式。另外,解聚的ip更易于独立地被功率选通,在给定工作负载上不在使用中的组件可被断电,从而降低总体功率消耗。
295.硬件逻辑小芯片可包括专用硬件逻辑小芯片2472、逻辑或i/o小芯片2474和/或存储器小芯片2475。硬件逻辑小芯片2472和逻辑或i/o小芯片2474可至少部分地用可配置逻辑或固定功能性逻辑硬件实现,并且可包括(一个或多个)处理器核、(一个或多个)图形处理器、并行处理器或本文中描述的其它加速器装置中的任何的一个或多个部分。存储器小芯片2475可以是dram(例如,gddr、hbm)存储器或高速缓冲(sram)存储器。
296.每个小芯片可被制作为单独的半导体管芯,并且经由互连结构2473与衬底2480耦合。互连结构2473可被配置成在各种小芯片与衬底2480内的逻辑之间路由电信号。互连结构2473可包括互连,诸如但不限于凸块或柱。在一些实施例中,互连结构2473可被配置成路由电信号,诸如,例如与逻辑、i/o和存储器小芯片的操作相关联的输入/输出(i/o)信号和/或功率或接地信号。
297.衬底2480可以是环氧基层压衬底,然而它不限于此,并且衬底2480还可包括其它合适类型的衬底。封装组装件2490可经由封装互连2483被连接到其它电气装置。封装互连2483可被耦合到衬底2480的表面,以将电信号路由到其它电气装置,诸如主板、其它芯片集或多芯片模块。
298.逻辑或i/o小芯片2474和存储器小芯片2475可经由桥2487被电耦合,该桥2487被配置成在逻辑或i/o小芯片2474与存储器小芯片2475之间路由电信号。桥2487可以是为电信号提供路由的密集互连结构。桥2487可包括由玻璃或合适的半导体材料构成的桥衬底。可在桥衬底上形成电路由部件,以在逻辑或i/o小芯片2474与存储器小芯片2475之间提供芯片到芯片连接。桥2487还可被称为硅桥或互连桥。例如,桥2487是嵌入式多管芯互连桥(emib)。备选地,桥2487可只是从一个小芯片到另一小芯片的直接连接。
299.衬底2480可包括用于i/o 2491、高速缓冲存储器2492和其它硬件逻辑2493的硬件组件。组构2485可被嵌入在衬底2480中以能够实现在各种逻辑小芯片与衬底2480内的逻辑2491、2493之间的通信。可选地,i/o 2491、组构2485、高速缓存、桥和其它硬件逻辑2493可被集成到基础管芯中,该基础管芯被层叠在衬底2480之上。
300.此外,封装组装件2490还可包括由组构2485或一个或多个桥2487互连的更少或更多数量的组件和小芯片。封装组装件2490内的小芯片可按在3d或2.5d布置来进行布置。一般而言,桥结构2487可被用于促进在例如逻辑或i/o小芯片与存储器小芯片之间的点到点互连。组构2485可被用于将各种逻辑和/或i/o小芯片(例如,小芯片2472、2474、2491、2493)与其它逻辑和/或i/o小芯片互连。衬底内的高速缓冲存储器2492可充当用于封装组装件2490的全局高速缓存、分布式全局高速缓存的一部分或者充当用于组构2485的专用高速缓存。
301.图24d示出了根据实施例的包括可互换小芯片2495的封装组装件2494。可互换小芯片2495可被组装到一个或多个基础小芯片2496、2498上的标准化槽中。基础小芯片2496、
2498可经由桥互连2497被耦合,该桥互连2497可类似于本文中描述的其它桥互连,并且可例如是emib。存储器小芯片还可经由桥互连被连接到逻辑或i/o小芯片。i/o和逻辑小芯片可经由互连组构通信。基础小芯片可各自支持采用标准化格式的一个或多个槽以用于逻辑或i/o或存储器/高速缓存中的一个。
302.可将sram和功率递送电路制作到基础小芯片2496、2498中的一个或多个基础小芯片中,所述基础小芯片2496、2498可使用相对于堆叠在基础小芯片之上的可互换小芯片2495不同的工艺技术来被制作。例如,可使用更大的工艺技术来制作基础小芯片2496、2498,而可使用更小的工艺技术来制作可互换小芯片。可互换小芯片2495中的一个或多个可互换小芯片可以是存储器(例如,dram)小芯片。可基于针对使用封装组装件2494的产品的功率和/或性能,为封装组装件2494选择不同存储器密度。另外,可基于针对产品的功率和/或性能,在组装时选择带有不同数量的类型的功能单元的逻辑小芯片。另外,可将包含不同类型的ip逻辑核的小芯片插入到可互换小芯片槽中,能够实现可混合并匹配不同技术ip块的混合处理器设计。
303.示例性片上系统集成电路图25
‑
26示出了可使用一个或多个ip核来制作的示例性集成电路以及相关联的图形处理器。除了所示出的内容外,还可包括其它逻辑和电路,包括另外的图形处理器/核、外设接口控制器或通用处理器核。图25
‑
26的与本文中的任何其它图的元件具有相同或类似的名称的元件描述了与其它图中的元件相同的元件,可以以与其类似的方式操作或起作用,可包括相同的组件,并且可链接到其它实体,如本文中其它地方所述的那些那样,但不限于此。
304.图25是示出了可使用一个或多个ip核来制作的示例性片上系统集成电路2500的框图。示例性集成电路2500包括一个或多个应用处理器2505(例如,cpu)、至少一个图形处理器2510,所述图形处理器2510可以是图形处理器1408、1508、2510或本文中描述的任何图形处理器的变型,并且可用于代替所描述的任何图形处理器。因此,本文中任何特征与图形处理器的组合的公开也公开了与图形处理器2510的对应组合,但不限于此。集成电路2500可另外包括图像处理器2515和/或视频处理器2520,以上处理器中的任何处理器可以是来自相同或多个不同设计设施的模块化ip核。集成电路2500可包括外设或总线逻辑,所述外设或总线逻辑包括usb控制器2525、uart控制器2530、spi/sdio控制器2535和i2s/i2c控制器2540。另外,集成电路可包括耦合到高清晰度多媒体接口(hdmi)控制器2550和移动工业处理器接口(mipi)显示接口2555中的一个或多个的显示装置2545。可通过包括闪速存储器和闪速存储器控制器的闪速存储器子系统2560来提供存储。可经由存储器控制器2565提供存储器接口以便访问sdram或sram存储器装置。一些集成电路另外包括嵌入式安全引擎2570。
305.图26a
‑
26b是示出了根据本文中描述的实施例的供soc内使用的示例性图形处理器的框图。图形处理器可以是图形处理器1408、1508、2510或本文中描述的任何其它图形处理器的变型。图形处理器可代替图形处理器1408、1508、2510或本文中描述的形处理器中的任何其它图形处理器使用。因此,任何特征与图形处理器1408、1508、2510或本文中描述的图形处理器中的任何其它图形处理器的组合的公开也公开了与图26a
‑
26b的图形处理器的对应组合,但不限于此。图26a示出了根据实施例的可使用一个或多个ip核来制作的片上系
统集成电路的示例性图形处理器2610。图26b示出了根据实施例的可使用一个或多个ip核来制作的片上系统集成电路的另外的示例性图形处理器2640。图26a的图形处理器2610是低功率图形处理器核的示例。图26b的图形处理器2640是更高性能图形处理器核的示例。例如,图形处理器2610、2640中的每个图形处理器可以是图25的图形处理器2510的变型,如本段开头所述的那样。
306.如图26a中所示出的,图形处理器2610包括顶点处理器2605和一个或多个片段处理器2615a
‑
2615n(例如,2615a、2615b、2615c、2615d到2615n
‑
1和2615n)。图形处理器2610可经由单独的逻辑执行不同着色器程序,使得顶点处理器2605被优化以执行用于顶点着色器程序的操作,而一个或多个片段处理器2615a
‑
2615n执行用于片段或像素着色器程序的片段(例如,像素)着色操作。顶点处理器2605执行3d图形流水线的顶点处理阶段,并且生成图元和顶点数据。(一个或多个)片段处理器2615a
‑
2615n使用由顶点处理器2605生成的图元和顶点数据来产生在显示装置上显示的帧缓冲(framebuffer)。(一个或多个)片段处理器2615a
‑
2615n可被优化以执行如opengl api中提供的片段着色器程序,所述片段着色器程序可被用于执行与如针对在direct 3d api中提供的像素着色器程序类似的操作。
307.图形处理器2610另外包括一个或多个存储器管理单元(mmu)2620a
‑
2620b、(一个或多个)高速缓存2625a
‑
2625b和(一个或多个)电路互连2630a
‑
2630b。一个或多个mmu 2620a
‑
2620b为图形处理器2610(包括为顶点处理器2605和/或(一个或多个)片段处理器2615a
‑
2615n)提供虚拟地址到物理地址映射,这些处理器除了引用在一个或多个高速缓存2625a
‑
2625b中存储的顶点或图像/纹理数据之外还可引用在存储器中存储的顶点或图像/纹理数据。一个或多个mmu 2620a
‑
2620b可与系统内的其它mmu同步,所述其它mmu包括与图25的一个或多个应用处理器2505、图像处理器2515和/或视频处理器2520相关联的一个或多个mmu,使得每个处理器2505
‑
2520可参与到共享或统一的虚拟存储器系统中。图形处理器2610的组件可与本文中描述的其它图形处理器的组件对应。一个或多个mmu 2620a
‑
2620b可与图2c的mmu 245对应。顶点处理器2605和片段处理器2615a
‑
2615n可与图形多处理器234对应。根据实施例,一个或多个电路互连2630a
‑
2630b使得图形处理器2610能够经由soc的内部总线或者经由直接连接来与soc内的其它ip核通过接口连接。一个或多个电路互连2630a
‑
2630b可与图2c的数据交叉开关240对应。可在图形处理器2610的类似组件和本文中描述的各种图形处理器架构之间找到进一步的对应关系。
308.如图26b所示出的,图形处理器2640包括图26a的图形处理器2610的一个或多个mmu 2620a
‑
2620b、(一个或多个)高速缓存2625a
‑
2625b和(一个或多个)电路互连2630a
‑
2630b。图形处理器2640包括提供统一的着色器核架构的一个或多个着色器核2655a
‑
2655n(例如,2655a、2655b、2655c、2655d、2655e、2655f直到2655n
‑
1和2655n),在该统一的着色器核架构中单个核或类型或核可执行全部类型的可编程着色器代码,所述可编程着色器代码包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。存在的着色器核的确切数量可在实施例和实现之间变化。另外,图形处理器2640包括:核间任务管理器2645,该核间任务管理器2645充当用于将执行线程分派给一个或多个着色器核2655a
‑
2655n的线程分派器;以及用于为基于贴片的渲染加速拼贴操作(tiling operation)的拼贴单元2658,在该基于贴片的渲染中,用于场景的渲染操作在图像空间中被细分,例如以利用场景内的局部空间相干性或优化内部高速缓存的使用。着色器核2655a
‑
2655n可与例如
如图2d中的图形多处理器234、或分别是图3a和图3b的图形多处理器325、350、或图3c的多核群组365a对应。
309.数据初始化技术图形处理装置(例如,gpu)可调用操作以实现用于要存储于图形处理装置的存储器中或通信地耦合到图形处理装置的存储器中的数据的数据初始化技术。在一些示例中,所述操作可由指令集架构(isa)中的一个或多个指令调用,所述指令由图形处理装置上的处理资源执行。如本文中所使用的,短语“处理资源”应被解释成指包括例如gpu中的处理单元、处理引擎、执行资源、执行单元(eu)1808a
‑
n、1809a
‑
n、1900、2152a
‑
b、流处理器、流播多处理器(sm)、图形多处理器325、350、多核群组365a
‑
365n、计算单元、下一个图形核的计算单元。在其它示例中,操作可由图形处理装置的存储器控制器上的处理资源来实现,所述存储器控制器诸如图3c中描绘的存储器控制器367、图7中描绘的存储器控制器712a
‑
712b、或图15中描绘的存储器控制器1514中的一个或多个。本文中描述了各种不同的数据初始化技术。
310.用于存储器控制器的随机数生成器图形处理装置(例如,gpu)可调用操作以实现用于要存储于存储器中的数据的数据初始化技术。在一些示例中,所述操作可由指令集架构(isa)中的一个或多个指令调用,所述指令由图形处理装置上的处理资源执行。如本文中所使用的,短语“处理资源”应被解释成指包括例如gpu中的处理单元、处理引擎、执行资源、执行单元(eu)1808a
‑
n、1809a
‑
n、1900、2152a
‑
b、流处理器、流播多处理器(sm)、图形多处理器325、350、多核群组365a
‑
365n、计算单元、下一个图形核的计算单元。在其它示例中,所述操作可由图形处理装置的存储器控制器上的处理资源实现。
311.在一些示例中,随机数生成器(rng)可被嵌入到存储器控制器(诸如,图3c中描绘的存储器控制器367、图7中描绘的存储器控制器712a
‑
712b、或图15中描绘的存储器控制器1514中的一个或多个)中。随机数生成器可实现为硬件模块,或者在一些示例中,实现为软件模块,其可由存储器控制器的处理电路系统调用。
312.在一些示例中,随机数生成器可用于利用随机值快速地初始化存储器。例如,嵌入到存储控制器367中的随机数生成器可用于利用随机值快速地初始化l1高速缓存/共享存储器373和/或l2高速缓存375的至少一部分。类似地,嵌入到存储器控制器712a
‑
712b中的一个或多个中的随机数生成器可利用随机值快速地初始化高速缓冲存储器708的至少一部分,并且嵌入到存储器控制器1514中的一个或多个中的随机数生成器可利用随机值快速地初始化共享存储器1556、l1高速缓存1554和/或l2高速缓存1553中的至少一部分。
313.在一些示例中,在后续处理操作期间代替调用随机数生成器或除了调用随机数生成器之外,还可使用存储在高速缓存中的随机值。图27是示出根据实施例的实现压缩技术的方法中的操作的流程图。参考图27,在操作2710,存储器控制器中的随机数生成器可例如由处理装置的用户或由初始化例程调用,以将随机数数据写入(操作2715)到通信地耦合到存储器控制器的高速缓冲存储器的全部或一部分。随后,例如在处理操作期间,当要求随机数时,可从高速缓存读取随机数据(操作2720),从而节省了在处理操作期间实时调用随机数生成器的处理时间。
314.使用高速缓存控制表面(ccs)来初始化随机数据
在一些示例中,在本文中有时被称为高速缓存控制表面(ccs)的高速缓存压缩元数据可用于在每高速缓存行的基础上初始化随机数据。在一些示例中,存储器控制器可维护描述高速缓冲存储器的一个或多个特性或状态值的高速缓存压缩元数据。例如,状态值可包括指示特定高速缓存行是否被压缩、未压缩、清除等的代码。在一些示例中,指示一个或多个高速缓存行是随机的状态值可被引入ccs代码结构中。
315.图28是示出了使用高速缓存控制表面(ccs)来初始化随机数据的方法中的操作的流程图,并且图29是适于使用高速缓存控制表面(ccs)来初始化随机数据的处理环境的示意性框图。参考图28,在操作2810,读取用于一个或多个高速缓存行的(一个或多个)ccs数据代码2910。例如,ccs数据代码2910可由诸如图3c中描绘的存储器控制器367、图7中描绘的存储器控制器712a
‑
712b、或图15中描绘的存储器控制器1514之类的存储器控制器来准备。
316.在操作2815,响应于指示(一个或多个)高速缓存行应当包括随机数据的ccs状态值代码2915,调用随机数生成器以生成随机值。在一些示例中,随机数生成器可由存储器控制器调用。在一些示例中,随机数生成器2920可被定位成极接近消费来自操作2810中引用的(一个或多个)高速缓存行的数据的实体而执行,而在其它示例中,随机数生成器2920可被定位成极接近操作2810中引用的高速缓存而执行。在操作2820,利用随机数据2925写入操作2810中引用的高速缓存行。在一些示例中,存储器控制器可生成种子,所述种子可被改变以生成随机数或者保持不变以生成伪随机数。
317.rdrnd isa在一些示例中,随机数生成器(rng)3025可嵌入到处理资源3010的数据端口3020中或者通信地耦合到处理资源3010的数据端口3020中。数据端口3020在处理资源3010和诸如l3高速缓存3040之类的高速缓冲存储器之间提供通信连接。处理资源还可通信地耦合到共享本地存储器(slm)3030。
318.在一些示例中,数据端口3020促进用于操作的存储器访问,所述操作包括渲染目标写入、常量缓冲器读取、擦除存储器空间读取/写入、介质表面访问(media surface access)和计算着色器存储器访问。在一些示例中,数据端口3020通过灵活的simd分散/聚集操作支持对l3高速缓存3040、渲染高速缓存和其它缓冲器的高效的非类型化/类型化读取/写入操作。数据端口3020可包括高速缓冲存储器空间以高速缓存对存储器的访问。高速缓冲存储器可以是单个数据高速缓存,或者被分离成用于经由数据端口访问存储器的多个子系统的多个高速缓存(例如,渲染缓冲器高速缓存、常量缓冲器高速缓存等)。在处理资源3010上执行的线程可通过经由数据分布互连来交换消息而与数据端口通信,所述数据分布互连耦合图形处理引擎的子系统中的每个。
319.rng 3025包括一个或多个基于硬件的随机数生成器。例如,rng 3025可包括伪随机数生成器(prng)或真随机数生成器(trng)。prng可以是密码安全的prng(csprng)。在一个实施例中,rng被配置为级联构造(cascade construction)rng,其中驻留在gpu内的熵(entropy)源被用于重复地对硬件实现的csprng进行播种(seed)。
320.参考图31,在一些示例中,可将读随机(rdrnd)指令添加到指令集架构。可在处理资源3010中(例如,在着色器核中)调用指令(操作3010)以发送消息或指令来读随机值。不需要地址。响应于rdrnd()指令,数据端口3020硬件可拦截消息(操作3015)并且获得伪随
机数,所述数据端口3020硬件在操作3020将一个或多个随机值直接返回到着色器核。
321.下面提供了本文中公开的技术的说明性示例。技术的实施例可包括以下描述的示例中的任何一个或多个以及以下描述的示例的任何组合。
322.示例1包括一种设备,所述设备包括处理器,所述处理器用于:读取一个或多个元数据代码,所述一个或多个元数据代码映射到高速缓冲存储器中的一个或多个高速缓存行;以及响应于确定所述一个或多个元数据代码指示所述高速缓存行要包含随机数字数据,调用随机数生成器以生成用于所述一个或多个高速缓存行的随机数字数据。
323.示例2包括示例1的主题,其中,所述随机数生成器被定位成接近所述高速缓冲存储器执行。
324.示例3包括示例1
‑
2中的任何示例的主题,其中,随机数生成器被定位成接近要消费所述随机数字数据的实体执行。
325.示例4包括示例1
‑
3中的任何示例的主题,所述处理器用于通过写入映射到所述高速缓冲存储器中的所述一个或多个高速缓存行的一个或多个元数据代码来配置所述高速缓冲存储器。
326.示例5包括示例1
‑
4中的任何示例的主题,所述处理器用于生成要被传递到所述随机数生成器的种子。
327.示例6包括示例1
‑
5中的任何示例的主题,所述处理器用于在调用所述随机数生成器的迭代之间改变所述种子。
328.示例7包括示例1
‑
6中的任何示例的主题,其中,所述处理器是存储器控制器的组件。
329.示例8包括一种处理器实现的方法,所述方法包括:读取一个或多个元数据代码,所述一个或多个元数据代码映射到高速缓冲存储器中的一个或多个高速缓存行;以及响应于确定所述一个或多个元数据代码指示所述高速缓存行要包含随机数字数据,调用随机数生成器以生成用于所述一个或多个高速缓存行的随机数字数据。
330.示例9包括示例8的主题,其中,所述随机数生成器被定位成接近所述高速缓冲存储器执行。
331.示例10包括示例8
‑
9中的任何示例的主题,其中,所述随机数生成器被定位成接近要消费所述随机数字数据的实体执行。
332.示例11包括示例8
‑
10中的任何示例的主题,还包括通过写入映射到所述高速缓冲存储器中的所述一个或多个高速缓存行的一个或多个元数据代码来配置所述高速缓冲存储器。
333.示例12包括示例8
‑
11中的任何示例的主题,还包括生成要被传递到所述随机数生成器的种子。
334.示例13包括示例8
‑
12中的任何示例的主题,还包括在调用所述随机数生成器的迭代之间改变所述种子。
335.示例14包括示例8
‑
13中的任何示例的主题,其中,所述处理器是存储器控制器的组件。
336.示例15包括一种非暂时性计算机可读介质,其包括一个或多个指令,所述指令当在至少一个处理器上执行时,将所述至少一个处理器配置成执行一个或多个操作以:读取
一个或多个元数据代码,所述一个或多个元数据代码映射到高速缓冲存储器中的一个或多个高速缓存行;以及响应于确定所述一个或多个元数据代码指示所述高速缓存行要包含随机数字数据,调用随机数生成器以生成用于所述一个或多个高速缓存行的随机数字数据。
337.示例16包括示例15的主题,其中,所述随机数生成器被定位成接近所述高速缓冲存储器执行。
338.示例17包括示例15
‑
16中的任何示例的主题,其中,所述随机数生成器被定位成接近要消费所述随机数字数据的实体执行。
339.示例18包括示例15
‑
17中的任何示例的主题,包括指令以通过写入映射到所述高速缓冲存储器中的所述一个或多个高速缓存行的一个或多个元数据代码来配置所述高速缓冲存储器。
340.示例19包括示例15
‑
18中的任何示例的主题,包括指令以生成要被传递到随机数生成器的种子。
341.示例20包括示例15
‑
19中的任何示例的主题,包括指令以在调用所述随机数生成器的迭代之间改变所述种子。
342.示例21包括示例15
‑
20中的任何示例的主题,其中,所述处理器是存储器控制器的组件。
343.以上具体实施方式包括对附图的参考,所述附图形成具体实施方式的一部分。附图通过图示的方式示出了可实践的特定实施例。这些实施例在本文中也被称为“示例”。这样的示例可包括除了示出或描述的那些元件之外的元件。然而,还预期了包括示出或描述的元件的示例。此外,还预期了使用关于特定示例(或其一个或多个方面)或关于本文中示出或描述的其它示例(或其一个或多个方面)示出或描述的那些元件(或其一个或多个方面)的任何组合或排列的示例。
344.在本文档中提及的出版物、专利和专利文档通过引用以其整体并入本文中,如同通过引用单独并入。如果本文档与通过引用如此并入的那些文档之间的使用不一致,则并入的(一个或多个)参考文件中的使用是对本文档的使用的补充;对于不可调和的不一致性,以本文档中的使用为准。
345.在本文档中,如在专利文档中常见的,术语“一(a或an)”被用于包括一个或多于一个,独立于“至少一个”或“一个或多个”的任何其它实例或使用。此外,
“……
的集合”包括一个或多个元素。在本文档中,除非另有指示,否则术语“或”用于指非排他性的或,使得“a或b”包括“a但不是b”、“b但不是a”以及“a和b”。在所附权利要求中,术语“包括(including)”和“其中(in which)”用作相应术语“包括(comprising)”和“其中(wherein)”的简单英语等同物。此外,在以下权利要求中,术语“包括(including和comprising)”也是开放式的;即,包括除了在权利要求中的这样的术语之后列出的那些元件之外的元件的系统、装置、物品或过程仍然被认为属于该权利要求的范围。此外,在以下权利要求中,术语“第一”、“第二”、“第三”等仅用作标记,并且不旨在暗示它们的对象的数字顺序。
346.如本文中提及的术语“逻辑指令”涉及可被一个或多个机器理解以用于执行一个或多个逻辑操作的表达。例如,逻辑指令可包括由处理器编译器可解释的指令,以用于对一个或多个数据对象执行一个或多个操作。然而,这仅仅是机器可读指令的示例,并且示例不限于这个方面。
347.如本文中所提及的术语“计算机可读介质”涉及能够维持由一个或多个机器可感知的表达的介质。例如,计算机可读介质可包括用于存储计算机可读指令或数据的一个或多个存储装置。这样的存储装置可包括存储介质,诸如例如光、磁或半导体存储介质。然而,这仅仅是计算机可读介质的示例,并且示例不限于这个方面。
348.如本文中所提及的术语“逻辑”涉及用于执行一个或多个逻辑操作的结构。例如,逻辑可包括基于一个或多个输入信号提供一个或多个输出信号的电路系统。这样的电路系统可包括接收数字输入并提供数字输出的有限状态机,或者响应于一个或多个模拟输入信号而提供一个或多个模拟输出信号的电路系统。这样的电路系统可在专用集成电路(asic)或现场可编程门阵列(fpga)中提供。此外,逻辑可包括存储在存储器中的机器可读指令,所述存储器与执行这样的机器可读指令的处理电路系统结合。然而,这些仅仅是可提供逻辑的结构的示例,并且示例不限于这个方面。
349.本文中描述的方法中的一些可被体现为计算机可读介质上的逻辑指令。当在处理器上执行时,逻辑指令使处理器被编程为实现所描述的方法的专用机器。当处理器被逻辑指令配置成执行本文中所描述的方法时,所述处理器构成用于执行所描述的方法的结构。备选地,本文中所描述的方法可简化成例如现场可编程门阵列(fpga)、专用集成电路(asic)等上的逻辑。
350.在描述和权利要求中,可使用术语“被耦合”和“被连接”以及它们的派生词。在特定示例中,“被连接”可用于指示两个或更多个元件彼此直接物理或电接触。“被耦合”可表示两个或更多个元件直接物理或电接触。然而,“被耦合”也可意味着两个或更多个元件可不彼此直接接触,但是仍然可彼此协作或交互。
351.说明书中对“一个示例”或“一些示例”的引用意味着结合示例描述的特定特征、结构或特性被至少包括在一实现中。短语“在一个示例中”在说明书中的各个地方中的出现可或可不全部指相同的示例。
352.上述描述旨在是说明性的而不是约束性的。例如,上述示例(或其一个或多个方面)可与其它示例组合使用。诸如由本领域的普通技术人员在回顾以上描述之后可使用其它实施例。摘要是为了允许读者快速确定技术公开的本质。在理解它将不用于解释或限制权利要求的范围或含义的情况下而提交它。此外,在以上具体实施方式中,各种特征可被分组在一起以使本公开流水线化。然而,权利要求可能没有阐述本文中公开的每个特征,因为实施例可能以所述特征的子集为特征。此外,实施例可包括比在特定示例中公开的那些特征更少的特征。因此,以下权利要求由此被并入具体实施方式中,其中每个权利要求独立地作为单独的实施例。本文中公开的实施例的范围要参考所附权利要求以及这样的权利要求所授权的等同物的全部范围来确定。
353.尽管已经以特定于结构特征和/或方法动作的语言描述了示例,但是要理解,所要求保护的主题可不限于所描述的特定特征或动作。相反,特定特征和动作是作为实现所要求保护的主题的样本形式来公开的。
354.前述描述和附图要在说明性而不是限制性的意义上看待。本领域技术人员将理解,在不脱离所附权利要求中所阐述的本发明的更广泛的精神和范围的情况下,可对本文中描述的实施例进行各种修改和改变。