20 cartes graphiques, 10 jeux, 1500 résultats...

L'arrivée de Windows Vista et les fêtes de fin d'année font que vous allez être nombreux dans les semaines à venir à vouloir acheter une nouvelle configuration. Après notre guide sur la mémoire, nous vous proposons un comparatif de 20 cartes graphiques testées dans 10 jeux sous 3 résolutions avec et sans les détails graphiques, le tout totalisant près 1500 résultats...

Avec le Shader Model 3.0, les choses changent de manière assez drastique. Alors que les versions précédentes se contentaient d’augmenter le nombre d’instructions que l’on peut utiliser ou de définir la précision des calculs, cette nouvelle version apporte une nouveauté fondamentale : la possibilité d’effectuer des branchements dynamiques.
Sous ce terme barbare se cache une chose très simple : permettre aux programmeurs d’ajouter des conditions dans leurs programmes. En effet, jusque-là les Shaders étaient linéaires dans le sens où leur exécution ne pouvait dépendre d’un des résultats intermédiaires qui se trouvait dans le programme. Impossible de vérifier qu’un pixel est blanc par exemple. Notez que pour être totalement précis, les branchements statiques étaient déjà possibles, comme par exemple dire que l’on exécute plusieurs fois une même série d’instructions.
Il a beaucoup été dit que le Shader Model 3.0 était une révision consacrée au bonheur des développeurs de jeux en leur apportant un peu plus de flexibilité et qu’il n’apporterait pas (ou peu), par ses capacités pures, d’avancée graphique majeure. Un point qui aura par contre été très longtemps éludé est qu’il requiert des changements fondamentaux au niveau des architectures.

Casser les pipelines


Les GPU jusqu’au Shader Model 2.0 peuvent être considérés comme des processeurs massivement parallèles. Comprenez par là qu’ils sont très doués pour effectuer des tâches qui sont à la fois simples (en nombre de lignes de code), lourdes (en taille, le nombre de vertices ou de pixels traités) et répétitives (le traitement est identique pour tout le monde). Ce n’est pas leur faire offense que de dire qu’ils ne sont pas capables de traiter ce que l’on appelle la logique : ajouter des opérations au niveau du code qui vont faire que le traitement ne sera plus uniforme, bref sortir d’une approche systématique pour s’approcher du sur mesure. Si l’on voulait faire une comparaison, le Shader Model 3.0 tendrait à rendre nos GPU un (tout petit) peu plus semblables à nos processeurs centraux.

GeForce 6800 GT : une des premières cartes Shader Model 3.0


C’est la doyenne de notre comparatif : la 6800 GT fût présentée au printemps 2004 (contre fin 2004 pour la X850 XT). Elle est également emblématique puisqu’elle fait partie de la première famille de cartes Shader Model 3.0. Nvidia avait raté la marche du Shader Model 2.0 avec les GeForce FX et préféré faire le saut vers la nouvelle version dès que possible. La carte sera d’ailleurs disponible avant la révision de DirectX qui devait l’accompagner : la version 9.0c.

GeForce 6800 GT
La GeForce 6800 GT, ici au format AGP

Si l’on regarde les grandes lignes, les entrailles du GeForce 6800 GT peuvent sembler assez proches de celles de la Radeon X850 XT : 6 unités de Vertex Shaders et 16 pipelines dédiés aux Pixels Shaders. Dans la pratique c’est assez différent puisque là où ATI a misé sur des pipelines « simples », Nvidia garde son concept de pipeline complexe. Chacun dispose maintenant de quatre unités de calcul de Pixels Shaders : une première grosse unité qui fonctionne en parallèle à une unité de texture puis une mini unité (gestion des « modifiers », semblable à la mini unité de la X850 XT). Puis suit une nouvelle grosse unité de calcul suivie à son tour d‘une nouvelle mini unité de gestion des « modifiers ». Sur le papier, ces unités devraient donc faire des miracles face à la concurrence.

6800
Schéma de principe d'un pipeline de GeForce 6

En pratique les choses sont un peu différentes. Les premiers tests avaient montré un avantage en puissance de calcul de Pixel Shader vers les X800 d’ATI. Surprenant, vu que les GeForce 6 présentent un nombre d’unités supérieur par pipeline. Cependant, si ces unités sont très puissantes dans la théorie, elles sont totalement sous exploitées. Dans la pratique, elles ne peuvent pas exécuter toutes les instructions et il faut que le code des shaders soit agencé d’une manière particulière pour que les choses marchent correctement. Autant dire qu’il faut parfois recourir au remplacement des shaders comme à l’époque du GeForce FX, avec pour but cette fois ci de mieux agencer les instructions pour utiliser au mieux le matériel. C’est également ici que l’on a pu voir la relative puissance du programme « The Way It’s Meant To Be Played » dédié aux développeurs de jeux : un partenariat à la fois technique et marketing qui permet de s’assurer que les futurs titres utiliseront au mieux le matériel. L’intérêt du compilateur HLSL jouera un rôle primordial dans les mois qui suivront au fur et à mesure que les titres mettront à profit ce type de shaders.
Pour le reste, la 6800 GT fonctionne à des fréquences assez modestes : 350 MHz pour son GPU et 500 MHz pour ses 256 Mo de mémoire de type GDDR3. Une puce qui avait été fabriquée, c’est assez rare pour être signalé, par IBM et non par TSMC, le fondeur taïwanais qui réalise en général les puces de Nvidia et d’ATI. Notez enfin que le GT n'est pas la version la plus haut de gamme du GeForce 6800. La gamme avait d'ailleurs été introduite (à l’époque sur un bus AGP !) avec la 6800 Ultra, version dont les fréquences étaient plus rapides : 400 et 550 MHz.


COMMENTAIRES

Aucun commentaire sur cet article.

Les commentaires sur ce document sont clos.

Publié le Modifié Par
Catégorie : Hardware, Carte graphique
Aucun commentaire
POUR NOUS SUIVRE...
newsletter

ACTUALITÉS
Macworld
PCWorld