AMD Radeon RX 5700 XT confirmado para apresentar 64 ROPs: Resumo da arquitetura


AMD 'Navi 10' is a very different GPU from the 'Vega 10,' or indeed the 'Polaris 10.' The GPU sees the introduction of the new RDNA graphics architecture, which is the first big graphics architecture change on an AMD GPU in nearly a decade. AMD had in 2011 released its Graphics CoreNext (GCN) architecture, and successive generations of GPUs since then, brought generational improvements to GCN, all the way up to 'Vega.' At the heart of RDNA is its brand new Compute Unit (CU), which AMD redesigned to increase IPC, or single-thread performance.

Antes de mergulhar mais fundo, é importante confirmar duas especificações principais da GPU 'Navi 10'. A contagem de ROP do silício é 64, o dobro do silício 'Polaris 10' e o mesmo que 'Vega 10.' O silício possui dezesseis RBs (render-backends), estes são de quatro cilindros, o que resulta em uma contagem de ROPs de 64. A AMD também confirmou que o chip possui 160 TMUs. Essas TMUs foram reprojetadas para oferecer filtragem bi-linear de 64 bits. A Radeon RX 5700 XT maximiza o silício, enquanto a RX 5700 desativa quatro UCs RDNA, trabalhando para 144 TMUs. A contagem de ROP no RX 5700 permanece inalterada em 64.
A Unidade de computação RDNA vê a maior parte da inovação da AMD. Grupos de duas UCs ​​criam uma 'Unidade de computação dupla' que compartilha um conjunto de dados escalar, cache de instruções do shader e um compartilhamento de dados local. Agora, cada UC é dividida entre duas unidades SIMD de 32 processadores de fluxo, um registro vetorial e uma unidade escalar, cada um. Dessa forma, a AMD dobrou o número de unidades escalares no silício para 80, o dobro da contagem de UC. Cada unidade escalar é semelhante em conceito a um núcleo de CPU e foi projetada para lidar com cargas de trabalho indivisíveis escalares pesadas. Cada unidade SIMD possui seu próprio agendador. Quatro TMUs fazem parte de cada UC. Esse redesenho maciço na hierarquia de SIMD e UC consegue dobrar as taxas de instruções escalares e vetoriais e o pool de recursos entre cada duas UCs ​​adjacentes. Grupos de cinco unidades de computação dupla RDNA compartilham uma unidade primária, um rasterizador, 16 ROPs e um grande cache L1. Dois desses grupos fazem um Shader Engine, e os dois Shader Engines se reúnem em um Processador de comando gráfico centralizado que organiza as cargas de trabalho entre os vários componentes, um Geometry Processor e quatro Asynchronous-Compute Engines (ACEs). O segundo grande redesenho dos recursos 'Navi' nas gerações anteriores é a hierarquia de cache. Cada RDNA dual-CU possui um cache rápido local que a AMD chama de L0 (nível zero). Cada unidade L0 de 16 KB é composta pela SRAM mais rápida e amortece as transferências diretas entre as unidades de computação e o cache L1, ignorando o cache I e K-cache da unidade de computação. O cache L1 de 128 KB compartilhado entre cinco CUs duplas é um bloco de 16 vias de transferências rápidas de amortecimento SRAM entre os mecanismos de sombra e os 4 MB de cache L2.

No total, o RDNA ajuda a AMD a obter um ganho de 2,3x no desempenho por área, um ganho de 1,5x no desempenho por Watt. O silício 'Navi 10' mede apenas 251 mm² em comparação com os 495 mm² da matriz da GPU 'Vega 10'. Muitos desses ganhos espaciais também são atribuíveis à mudança para o novo processo de fabricação de silício de 7 nm, a partir de 14 nm. AMD also briefly touched on its vision for real-time ray-tracing. To begin with, we can confirm that the 'Navi 10' silicon has no fixed function hardware for ray-tracing such as the RT core or tensor cores found in NVIDIA 'Turing' RTX GPUs. For now, AMD's implementation of DXR (DirectX Ray-tracing) for now relies entirely on programmable shaders. At launch the RX 5700 series won't be advertised to support DXR. AMD will instead release support through driver updates. The RDNA 2 architecture scheduled for 2020-21 will pack some fixed-function hardware for certain real-time ray-tracing effects. AMD sees a future in which real-time ray-tracing is handled on the cloud. The next frontier for cloud-computing is cloud-assist, where your machine can offload processing workloads to the cloud.