Les 10 cartes graphiques les plus influentes de tous les temps

By Flavien ROUX

Les graphismes sont le composant le plus sexy de tous, et nous avons profité de décennies de cartes révolutionnaires qui ont orienté l’industrie d’une manière ou d’une autre. Voici donc les dix cartes que nous considérons comme les plus influentes à ce jour.

3dFX Voodoo (1996)

La 3dFX Voodoo est née à une époque où le concept d’accélération 3D dans les appareils grand public n’était guère plus qu’une chimère. Il a, à lui seul, fait passer les jeux accélérés en 3D de la marginalité au courant dominant. Avec seulement 4 Mo de mémoire – un chiffre qui semble presque risible selon les normes actuelles – le Voodoo a tout de même été en mesure de faciliter un bond sans précédent dans les performances visuelles et le réalisme des jeux.

Le mapping de textures et le z-buffering, des fonctions qui sont aujourd’hui considérées comme acquises, ont été introduites dans le monde du jeu grâce à la Voodoo. Alors que la très populaire Sony Playstation offrait aux joueurs des polygones bancals grâce à la faible précision de ses coordonnées de profondeur (les coordonnées « Z »), la Voodoo offrait une géométrie solide comme le roc et des détails de texture qui ont instantanément rendu les consoles de jeu obsolètes.

Des cartes telles que la S3 Virge et la Matrox Mystique pouvaient techniquement avoir ces caractéristiques en premier, mais grâce à l’API graphique GLIDE de 3dFX et à un matériel très performant, elles pouvaient être plus que des points sur une liste de caractéristiques et faire une différence dans les jeux réels.

Je n’ai jamais eu de carte graphique Voodoo originale, mais j’ai eu une Voodoo 3 2000, l’une des dernières générations de cartes produites avec succès par la société, et c’était probablement le plus grand bond en avant dans la technologie graphique que j’aie jamais connu personnellement. La seule chose dont je me souvienne avoir été un problème avec ma dernière (et unique) carte Voodoo était un curieux manque de support des couleurs 32 bits.

L’effet de 3dFX se fait encore sentir aujourd’hui, car la propriété intellectuelle de la société a été rachetée par NVIDIA et se trouve dans l’ADN de toutes les cartes NVIDIA.

Quelles sont les différences entre RTX et GTX ?

NVIDIA GeForce 256 (1999)

NVIDIA entre en scène avec la GeForce 256. Il s’agit de la première carte commercialisée en tant que GPU (Graphics Processing Unit), soulignant sa capacité à décharger le CPU des calculs géométriques. Avec ses fonctions de transformation matérielle, d’écrêtage et d’éclairage (T&L), le GeForce 256 avait pour but de soulager le CPU et de laisser la carte graphique se charger des tâches les plus lourdes. Ce changement d’architecture a constitué un tournant majeur et a établi la norme pour les futures cartes graphiques.

Mais le GeForce 256 était plus qu’un simple libérateur du CPU ; c’était aussi un symbole de l’engagement de NVIDIA à repousser sans cesse les limites de ce qui était possible en matière de technologie graphique. Doté de 32 Mo de mémoire DDR, une amélioration considérable par rapport aux 4 Mo du Voodoo-, le GeForce 256 s’est avéré être un véritable concentré de puissance. Il offrait aux joueurs un nouveau niveau de performance, permettant des environnements plus détaillés et des taux d’images plus fluides.

Les pilotes Detonator exclusifs de NVIDIA étaient une autre caractéristique clé du GeForce 256. Ces pilotes ont amélioré les performances, la stabilité et la compatibilité de la carte, permettant au GeForce 256 d’offrir une expérience de jeu de haute qualité.

Je n’ai jamais eu la chance de posséder une GeForce 256, mais j’ai possédé son prédécesseur, la Riva TNT2. En fait, j’avais le TNT2 M64, mais j’avais l’impression qu’il s’agissait d’un « GPU ». D’autant plus qu’il s’agissait d’une seule et même carte, mais c’est cette carte qui a inventé le terme, et qui possédait les caractéristiques nécessaires pour justifier ce nom.

ATI Radeon 9700 Pro (2002)

Lorsqu’il s’agit d’être en avance sur son temps, l’ATI Radeon 9700 Pro remporte la palme. Première carte DirectX 9 d’ATI, elle était en concurrence avec les cartes DX9 de NVIDIA comme la FX 5800. Cependant, contrairement aux fameuses cartes FX « dust buster » de NVIDIA, la 9700 Pro était beaucoup plus silencieuse, plus froide et plus économe en énergie.

La Radeon 9700 Pro symbolisait l’intention d’ATI d’être un concurrent sur le marché des cartes graphiques haut de gamme, une position qu’elle a consolidée au fil des ans en continuant à innover et à rivaliser avec des sociétés comme NVIDIA. Le succès de la carte a permis à ATI (et plus tard à AMD) de s’imposer comme un concurrent digne de ce nom sur le marché des GPU, ouvrant la voie à une rivalité féroce qui allait stimuler l’innovation pendant des années.

A lire également :   Comment passer d'une prise péritel à une prise HDMI ?

C’est également à cette époque que je suis tombé pour la première (et dernière) fois dans le piège des cartes « halo ». La carte 9700 Pro était tellement populaire que j’étais prêt à faire n’importe quoi pour y goûter. Malheureusement, ce goût était celui de la Radeon 9200 SE, qui était une carte tellement horrible que je l’ai échangée contre la GeForce 5200 FX, presque mais pas tout à fait aussi mauvaise.

NVIDIA GeForce 6800 Ultra (2004)

NVIDIA est revenu en force avec le GeForce 6800 Ultra en 2004. Cette carte gigantesque (pour l’époque) a été la première à prendre en charge le Shader Model 3.0 et le rendu HDR (High Dynamic Range). En outre, la carte 6800 Ultra offrait une compatibilité poussée, ce qui lui permettait de prendre en charge les jeux et les applications qui apparaissaient des années après sa sortie. Son ensemble de fonctions robustes et sa longévité en ont fait le favori des passionnés.

L’architecture NV40, une merveille technologique à part entière, alimentait ces fonctionnalités. Cette architecture abritait 222 millions de transistors, soit plus du double du nombre de transistors de la Radeon 9700 Pro. En outre, le 6800 Ultra était équipé d’un impressionnant pipeline de 16 pixels et de 6 vertex shaders, ce qui lui conférait la puissance nécessaire pour gérer les jeux les plus exigeants de l’époque et ceux à venir.

Alors que les cartes X800XT ont souvent battu le 6800 Ultra en termes de performances pures, c’est la garantie de pérennité promise qui a fait de cette carte une carte spéciale. On peut se demander si les acheteurs en ont vraiment profité, mais ce qui rend cette carte si influente, c’est qu’aujourd’hui, on ne s’attend pas vraiment à être exclu des nouveaux jeux sur un ancien GPU à cause des fonctionnalités, mais plutôt à cause d’un manque de performances. Il est encore possible de jouer à des jeux modernes avec des cartes qui datent de plusieurs générations, à l’exception du taux de rafraîchissement.

La carte que j’ai achetée à cette époque était la GeForce 6600 AGP. Je ne pouvais même pas m’offrir le modèle GT, mais la prise en charge de ces nouvelles fonctionnalités m’a permis de jouer à Half-Life 2 et Doom 3, ce qui était littéralement impossible avec des cartes plus anciennes qui ne prenaient pas en charge les fonctionnalités API dont ces jeux avaient besoin.

Les GPU Radeon RX 7000 d’AMD arrivent sur les ordinateurs portables

NVIDIA GeForce 8800 GT (2007)

Le GeForce 8800 GT est un exemple classique du meilleur de NVIDIA. Il a introduit la prise en charge de DirectX 10 et a été doté de l’architecture révolutionnaire des shaders unifiés, ce qui signifie qu’il peut ajuster l’allocation des ressources en fonction de la charge de travail. Cela a permis un fonctionnement plus efficace et de meilleures performances. Pour beaucoup, la GeForce 8800 GT représentait le point idéal en termes de prix et de performances, rendant le jeu haut de gamme plus accessible.

Le GeForce 8800 GT représentait l’apogée de l’architecture G80 de NVIDIA, tirant parti de son modèle de shaders unifié innovant. Contrairement aux modèles précédents où les pixel shaders et les vertex shaders étaient des entités séparées, les 112 Stream Processors du 8800 GT géraient les deux types de shaders. Il en résulte un traitement plus efficace et des performances accrues.

À titre personnel, la 8800GT est la meilleure carte graphique que j’aie jamais achetée. Elle a complètement changé la donne. J’avais acheté par erreur l’horrible 8600 GT, pensant que, comme auparavant, ce serait le roi du milieu de gamme, mais des jeux comme Oblivion et les premiers jeux Witcher étaient quasiment injouables. Lorsque j’ai vu pour la première fois les benchmarks de la 8800GT, je n’arrivais pas à croire le prix, mais après avoir acheté le modèle le moins cher que j’ai pu trouver, tout était vrai. Mieux encore, cette carte a duré pendant toute la génération PS3 et Xbox 360, en étant solidement en avance sur ces systèmes d’un point de vue technologique et donc en écrasant tous les jeux multiplateformes qui avaient des portages PC. C’est le bon temps !

A lire également :   GeoGebra: L'Innovation Pédagogique au Carrefour des Mathématiques et de la Technologie

Comment surveiller la température du GPU des ordinateurs ?

ATI Radeon HD 4870 (2008)

La particularité de cette carte est qu’elle est la première à avoir atteint et dépassé la barre du téraflop. Pour être précis, elle a atteint 1,2 téraflop ! De nos jours, nous parlons des GPU en termes de téraflops, mais atteindre ce niveau de calcul, c’était marcher sur les plates-bandes des superordinateurs.

Construit avec la même architecture RV770 que le HD 4850 (tout aussi génial et plus abordable), le 4870 se distingue par une vitesse d’horloge plus élevée, avec une fréquence impressionnante de 750 MHz. Combinée à ses 800 processeurs de flux, elle a permis à la 4870 de surpasser les performances de bon nombre de ses concurrents.

La Radeon HD 4870 a ouvert la voie à l’ère de la mémoire GDDR5 dans les cartes graphiques. La mémoire GDDR5 offre un débit de données deux fois supérieur à celui de la mémoire GDDR3, ce qui se traduit par des graphismes plus rapides, plus fluides et plus détaillés.

Bien qu’un téraflop ne soit qu’un nombre arbitraire, tout comme le franchissement de la barre des 1 GHz pour les processeurs, cette avancée a eu un effet psychologique. Il indique que nous sommes entrés dans une nouvelle catégorie de performances.

Ce qui est intéressant, c’est que les joueurs d’aujourd’hui apprécient toujours les jeux qui se situent plus ou moins dans cette catégorie de performances des GPU. Bien qu’ils disposent de beaucoup plus de mémoire de texture, des appareils comme la Nintendo Switch et la Xbox One ont des performances brutes similaires, et beaucoup de gens utilisent encore les deux.

NVIDIA GeForce GTX 970 (2014)

La GTX 970 est sans doute l’une des cartes graphiques les plus populaires de l’ère moderne. Offrant de hautes performances à un prix abordable, elle est devenue le GPU de prédilection d’une grande partie des joueurs. Au-delà de ses performances brutes, elle a introduit des fonctionnalités telles que la Super Résolution Dynamique, qui permet aux jeux d’être rendus à des résolutions plus élevées, puis réduits pour obtenir une image plus nette.

Sous son apparence élégante, la GeForce GTX 970 regorgeait de technologies révolutionnaires pour l’époque. Cette carte était l’une des premières à intégrer l’architecture Maxwell de NVIDIA, qui visait à fournir des performances par watt supérieures à celles des générations précédentes. Ce choix architectural a fait de la GTX 970 une carte étonnamment efficace, puisqu’elle offrait des performances qui rivalisaient, voire dépassaient, certaines options haut de gamme de la génération précédente, tout en consommant beaucoup moins d’énergie.

Il convient de noter que la configuration de la mémoire de la GTX 970 a fait l’objet d’une controverse, car il a été révélé par la suite que les derniers 0,5 Go de mémoire (sur les 4 Go alloués) fonctionnaient beaucoup plus lentement que les autres. Cette carte est devenue à la fois tristement célèbre et emblématique.

Tout comme la 8800 GT, cette carte offrait un tel rapport qualité-prix par rapport à la carte phare de sa série, qu’elle semblait être une évidence. Mais c’est surtout l’amélioration significative de l’efficacité énergétique qui a marqué le début d’une tendance qui s’est véritablement affirmée avec la nouvelle génération de cartes de NVIDIA.

Le NVIDIA GeForce NOW vient de recevoir une grosse mise à jour

NVIDIA GeForce GTX 1080 (2016)

La GTX 1080 a été la première à utiliser l’architecture Pascal, ce qui a permis d’améliorer considérablement l’efficacité énergétique et les performances. Cette carte a également été la première à franchir la barre des 2 GHz, faisant entrer le jeu en ultra-haute résolution dans le courant dominant. Les jeux de réalité virtuelle ont également trouvé un champion dans la GTX 1080, car ses niveaux de performance offrent l’expérience fluide qu’exige la réalité virtuelle.

L’amélioration de l’efficacité énergétique de la technologie Pascal a été si spectaculaire qu’elle a également entraîné une révolution dans le domaine des cartes graphiques pour ordinateurs portables. Les GPU pour ordinateurs portables n’étaient plus en retard d’une ou deux générations. Il s’agissait exactement des mêmes GPU que ceux des ordinateurs de bureau, mais avec une fréquence inférieure.

Aujourd’hui encore, le 1080 est un GPU tout à fait viable et vous trouverez sur divers forums de nombreux passionnés de jeux qui se vantent de la longévité de leur 1080 bien-aimé. Tant que vous visez des résolutions de 1080p ou 1440p, il fera tourner les jeux avec des niveaux de détails décents et des taux de rafraîchissement jouables.

La 1080 a montré qu’un GPU phare n’avait pas besoin d’être une bête dévoreuse de PSU pour offrir de bonnes performances, et elle mérite amplement sa place dans cette liste.

A lire également :   Comment annuler le partage d'un document Google

ASUS vend désormais des GPU RTX 4000- et 4070-Ti plus fins

AMD Radeon RX Vega 64 (2017)

La Vega 64 d’AMD a marqué une étape importante pour l’entreprise. Avec 12,66 téraflops de performances brutes et un nouveau moteur géométrique puissant, elle a apporté une concurrence féroce sur le marché haut de gamme. Cette carte représentait l’engagement d’AMD en faveur des jeux haut de gamme et de la puissance de calcul, ce qui en fait une pièce maîtresse du paysage moderne des GPU.

La Radeon Vega 64 a été la première carte graphique grand public d’AMD à utiliser la mémoire HBM2 (High Bandwidth Memory 2), une architecture de mémoire offrant une empreinte physique nettement plus petite et une bande passante plus élevée que les solutions GDDR5 et GDDR5X traditionnelles. Le Vega 64 était équipé de 8 Go de mémoire HBM2, offrant une bande passante incroyable pour les tâches graphiques intensives.

Bien qu’AMD semble avoir abandonné la mémoire HBM pour le moment, cette carte montre son influence sur la façon dont les GPU modernes se concentrent fortement sur la bande passante de la mémoire, en particulier pour les cartes visant des résolutions plus élevées. C’est aussi un coup de semonce d’AMD à NVIDIA, qui montre qu’ils sont toujours prêts à s’attaquer au haut de gamme du marché et à expérimenter des technologies qui sortent des sentiers battus, plutôt que de jouer la carte de la sécurité et de l’incrémentalité.

NVIDIA GeForce RTX 3090 (2020)

Pour compléter notre liste de cartes graphiques influentes, nous arrivons à la NVIDIA GeForce RTX 3090 monolithique, sortie en 2020. Modèle phare de la série RTX 3000 de NVIDIA, la RTX 3090 était une vitrine des technologies GPU les plus récentes et les plus avancées, établissant une nouvelle référence pour ce qui était possible dans le jeu sur PC.

Au cœur de la RTX 3090 se trouve la puce GA102, fabriquée à l’aide d’un processus de pointe de 8 nm. Avec un nombre impressionnant de 10 496 cœurs CUDA et une vitesse d’horloge de base de 1 395 MHz, la RTX 3090 offrait des performances brutes tout simplement inégalées à l’époque de sa sortie.

Cependant, c’est la mémoire de la RTX 3090 qui l’a vraiment distinguée de ses contemporaines. La carte dispose de 24 Go de mémoire GDDR6X ultra-rapide, offrant une bande passante incroyable et une capacité plus que suffisante pour les jeux et les applications les plus exigeants.

Ce qui est intéressant avec la 3090, c’est que NVIDIA a dit aux joueurs, avec un clin d’œil et un clin d’œil, que la 3090 était essentiellement la carte Titan de cette génération. Elle n’était pas destinée aux jeux, bien qu’elle puisse surpasser la « vraie » carte phare RTX 3080 dans n’importe quel test, et qu’elle utilise les mêmes pilotes adaptés aux jeux.

On peut considérer la 3090 de deux manières : comme une carte de jeu très chère qui n’offre pas un bon rapport nombre d’images par dollar par rapport à la carte située juste en dessous, ou comme une carte de station de travail extrêmement bon marché. Après tout, avec 24 Go de VRAM et le matériel d’accélération de l’IA et du ray-tracing de NVIDIA, vous pouvez faire bien plus avec cette carte que jouer à des jeux vidéo, et les week-ends, vous pouvez bénéficier des meilleures performances dans les jeux.

Je pense que le 3090 a marqué le début d’une tendance, et à partir de 2023, le 4090 offrira une offre très similaire, qui semble attirer à la fois les professionnels des stations de travail à petit budget et les joueurs à gros budget, puisque NVIDIA ne semble pas pouvoir garder ces BFGPU en stock.

Maintenant qu’Intel envisage sérieusement d’entrer comme troisième concurrent sur le marché des GPU haut de gamme, je ne doute pas qu’il y aura au moins autant de cartes graphiques emblématiques que nous pourrons apprécier au cours des prochaines décennies, et j’ai vraiment hâte de les rencontrer !

Enfin, un remerciement spécial au VGA Museum pour les magnifiques photos que vous voyez dans la plupart des entrées ci-dessus, qu’ils mettent à disposition pour une utilisation dans les articles. Ils ont une énorme collection de photos de cartes graphiques classiques ainsi que des fiches techniques et des faits intéressants sur les GPU à travers l’histoire – et ils font tout cela comme un travail d’amour financé par des dons. Si vous vous sentez très nostalgique des GPU d’antan, cela vaut la peine d’y faire un tour !

Laisser un commentaire