[ad_1]
As GPUs são monolíticas; fabricantes constroem toda a GPU como um grande chip. Está ficando mais difícil fazer transistores menores, então os dias de chips de GPU massivos podem acabar em breve. Em vez disso, o futuro pode estar com o Multi-Chip Module (MCM).
O que é uma GPU MCM?
O conceito de uma GPU MCM é simples. Em vez de um chip de GPU grande que contém todos os elementos de processamento, você tem várias unidades de GPU menores conectadas umas às outras usando um sistema de conexão de largura de banda extremamente alta, às vezes chamado de “tecido”. Isso permite que os módulos se comuniquem como se fossem parte de uma GPU monolítica.
Tornar os módulos de GPU menores e juntá-los é vantajoso em relação à abordagem monolítica. Para começar, eu esperaria obter melhores rendimentos de cada pastilha de silício, já que uma falha arruinaria apenas um módulo em vez de uma GPU inteira. Isso pode levar a GPUs mais baratas e tornar o dimensionamento de desempenho muito mais fácil. Se você quer uma placa gráfica mais rápida, basta adicionar mais módulos!
Alguém se lembra de SLI e Crossfire?
A ideia de usar vários chips para alimentação não é nova. Você pode se lembrar de uma época em que os PCs para jogos mais rápidos usavam várias placas gráficas conectadas umas às outras. A solução da NVIDIA era conhecida como SLI (Scalable Link Interface) e a AMD tinha Crossfire.
A escala de desempenho nunca foi perfeita, com a segunda placa adicionando talvez 50-70% de desempenho em média. O principal problema foi encontrar uma maneira de dividir a carga de renderização entre duas ou mais GPUs. Esta é uma tarefa complexa, e tanto o SLI quanto o Crossfire tinham limitações de largura de banda.
Houve também várias falhas gráficas e problemas de desempenho que resultaram dessa abordagem. Microgagueiras eram comuns no auge do SLI. Hoje, você não encontrará esse recurso em GPUs de consumo e, graças à forma como os pipelines de renderização funcionam nos jogos, o SLI não é mais viável. Placas de ponta como a RTX 3090 ainda possuem NVLink, para conectar várias placas, mas isso é para cargas de trabalho GPGPU especiais, em vez de renderização em tempo real.
As GPUs MCM se apresentam a softwares como jogos ou softwares gráficos como uma única GPU monolítica. Todo o balanceamento de carga e coordenação são tratados no nível do hardware, portanto, os velhos tempos do SLI nunca devem voltar.
Já aconteceu com as CPUs
Se a ideia de um MCM lhe parece familiar, é porque esse tipo de tecnologia já é comum em CPUs. Especificamente, a AMD é conhecida por projetos pioneiros de “chiplet”, onde suas CPUs são feitas de vários módulos conectados por “infinity fabric”. A Intel também cria produtos baseados em chiplet desde 2016.
RELACIONADO: O que é um chiplet?
A Apple Silicon tem uma GPU MCM?
Os chips Apple Silicon mais recentes contêm várias GPUs independentes, portanto, não é errado pensar neles como um exemplo de tecnologia de GPU MCM. Considere o Apple M1 Ultra, que é literalmente dois chips M1 Max unidos por uma interconexão de alta largura de banda. Embora o Ultra contenha duas GPUs M1 Max, elas apresentam uma única GPU para qualquer software em execução no seu Mac.
Essa abordagem de fazer chips maiores e melhores ao juntar vários módulos SoC (System on a Chip) provou ser bastante eficaz para a Apple!
A tecnologia MCM está sobre nós
No momento da redação deste artigo, a próxima geração de GPUs é a série RDNA 3 da AMD e a série RTX 40 da NVIDIA. Vazamentos e rumores indicam uma forte possibilidade de RDNA 3 ser uma GPU MCM e os mesmos rumores abundam sobre futuras GPUs NVIDIA.
Isso significa que podemos estar à beira de um grande salto no desempenho da GPU, juntamente com uma possível queda no preço, à medida que os rendimentos melhoram, reduzindo o preço das placas principais ou de última geração.
RELACIONADO: O que é um sistema em um chip (SoC)?
[ad_2]