Les GPU sont monolithiques ; les fabricants créent l’ensemble du GPU sous la forme d’une seule grande puce. Il devient de plus en plus difficile de créer des transistors plus petits, de sorte que l’époque des puces GPU massives pourrait bientôt prendre fin. L’avenir pourrait plutôt être au module multipuce (MCM).
Qu’est-ce qu’un GPU MCM ?
Le concept d’un GPU MCM est simple. Au lieu d’une grande puce GPU contenant tous les éléments de traitement, vous avez plusieurs unités GPU plus petites connectées les unes aux autres à l’aide d’un système de connexion à bande passante extrêmement large, parfois appelé « fabric ». Cela permet aux modules de communiquer entre eux comme s’ils faisaient partie d’un GPU monolithique.
Le fait de fabriquer des modules de GPU plus petits et de les relier entre eux présente des avantages par rapport à l’approche monolithique. Tout d’abord, on peut s’attendre à obtenir un meilleur rendement de chaque tranche de silicium, car un défaut ne détruirait qu’un module et non un GPU entier. Cela pourrait conduire à des GPU moins chers et faciliter la mise à l’échelle des performances. Si vous voulez une carte graphique plus rapide, il suffit d’ajouter des modules !
Quelqu’un se souvient-il de SLI et Crossfire ?
L’idée d’utiliser plusieurs puces pour booster n’est pas nouvelle. Vous vous souvenez peut-être de l’époque où les PC de jeu les plus rapides utilisaient plusieurs cartes graphiques connectées les unes aux autres. La solution de NVIDIA était connue sous le nom de SLI (Scalable Link Interface), et AMD avait Crossfire.
La mise à l’échelle des performances n’a jamais été parfaite, la deuxième carte n’ajoutant que 50 à 70 % de performances en moyenne. Le principal problème était de trouver un moyen de répartir la charge de rendu entre deux ou plusieurs GPU. Il s’agit d’une tâche complexe, et tant le SLI que le Crossfire étaient limités par la bande passante.
Cette approche a également donné lieu à divers problèmes graphiques et de performances. Les micro-stutters étaient monnaie courante à l’époque du SLI. Aujourd’hui, vous ne trouverez pas cette fonctionnalité sur les GPU grand public et, grâce au fonctionnement des pipelines de rendu dans les jeux, le SLI n’est plus possible. Les cartes haut de gamme comme la RTX 3090 disposent toujours de NVLink, pour connecter plusieurs cartes ensemble, mais cette fonction est réservée aux charges de travail GPGPU spéciales plutôt qu’au rendu en temps réel.
Les GPU MCM se présentent aux logiciels tels que les jeux ou les logiciels graphiques comme un seul GPU monolithique. L’ensemble de l’équilibrage de la charge et de la coordination est géré au niveau matériel, de sorte que le mauvais vieux temps du SLI ne devrait pas avoir de retour.
C’est déjà arrivé aux CPU
Si l’idée d’un MCM vous semble familière, c’est parce que ce type de technologie est déjà courant dans les CPU. Plus précisément, AMD est connu pour avoir été le pionnier des conceptions « chiplet », où ses processeurs sont constitués de plusieurs modules reliés par un « infinity fabric ». Intel a également créé des produits basés sur les chiplets depuis 2016.
Le silicium d’Apple possède-t-il un GPU MCM ?
Les dernières puces Apple Silicon contiennent plusieurs GPU indépendants. Il n’est donc pas faux de les considérer comme un exemple de la technologie GPU MCM. Prenons le M1 Ultra d’Apple, qui est littéralement constitué de deux puces M1 Max collées ensemble par une interconnexion à large bande passante. Bien que l’Ultra contienne deux GPU M1 Max, ils présentent un seul GPU à tout logiciel exécuté sur votre Mac.
Cette approche consistant à fabriquer des puces plus grandes et plus performantes en collant ensemble plusieurs modules SoC (System on a Chip) s’est avérée très efficace pour Apple !
La technologie MCM est à nos portes
À l’heure où nous écrivons ces lignes, la prochaine génération de GPU est la RDNA 3 d’AMD et la série RTX 40 de NVIDIA. Les fuites et les rumeurs indiquent qu’il y a de fortes chances que le RDNA 3 soit un GPU MCM et les mêmes rumeurs abondent au sujet des futurs GPU de NVIDIA.
Cela signifie que nous sommes peut-être à l’aube d’un saut majeur dans les performances des GPU, associé à une baisse potentielle des prix, car les rendements s’améliorent, faisant baisser le prix des cartes phares ou des cartes haut de gamme.