Nvidia Tesla K20 : la grosse carte de calcul est disponible !

Nvidia en dit un peu plus sur sa nouvelle carte de calcul Tesla K20. Détails techniques, et explications de technologies sont à l'honneur à l'occasion de la présentation de cette carte orientée GPGPU.

NVIDIA Tesla K20 (16)La firme au caméléon a déjà montré sa nouvelle carte de calcul Tesla K20, mais cette fois, c'est un déballage complet de ses caractéristiques auquel nous avons droit. Nous avons d'ailleurs eu la possibilité de visiter récemment le centre de calcul Titan qui est équipé de 18.688 cartes Tesla K20X pour un record de performance sous LINPACK de 17,59 Petaflops.

La puce seule de la K20X, de la génération Kepler comme sur les derniers GPU Nvidia, propose 3,95 Teraflops en simple-precision et 1,31 Teraflops en double-precision, pour un maximum de 235W (225W sur la K20) de TDP. La mémoire vive de la carte Tesla K20X est de 6 Go en GDDR5 et 5 Go pour la version K20 classique. Les performances de cette dernière sont légèrement inférieures, mais restent tout de même remarquables avec 1,17 Teraflops en double-precision et 3,52 Teraflops en simple-precision pour un TDP inchangé.

NVIDIA Tesla K20 (3)

Les différences notables entre la génération Tesla K10 et Tesla K20 sont l'ajout d'un système de parallélisme dynamique des calculs et une nouvelle gestion des queues de traitement des instructions, sans oublier le nombre de coeurs CUDA directement disponibles (2496 dans la K20 et 2688 dans la K20X). Dans le détail, le "Dynamic Parallelism" permet d'autoriser la création automatique de nouveaux threads de calcul au sein même des unités SMX. Il n'est donc plus nécessaire de revenir au CPU pour les créer, augmentant de fait la puissance de calcul si nécessaire et si la programmation du logiciel est optimisée pour, comme l'AMR (Adaptative Mesh Refiniment), ou le FMM (Fast Multipole Method) et le calcul multigrilles. Avec ce système, Nvidia indique un doublement des performances sans effort particulier de la part du développeur.

L'Hyper-Q permet plus exactement d'adresser plusieurs coeurs CUDA depuis un seul CPU. L'utilisation d'une telle technique permet de maximiser l'utilisation du GPU dans les calculs, tout en réduisant le temps d'attente des coeurs CPU. Cette nouvelle technologie sera très appréciée des applications en mode Cluster par exemple.

NVIDIA Tesla K20 (8) NVIDIA Tesla K20 (11) NVIDIA Tesla K20 (12) NVIDIA Tesla K20 (10)
Consulter la présentation complète (17 photos)

Pour terminer le tour de ces cartes GPGPU de Nvidia, on nous rappelle qu'il est possible de développer son application en C, C++ ou encore en Fortran en utilisant simplement des extensions pour CUDA, en appelant des routines d'exécution en lieu et place des mêmes routines dans ces langages de programmation. Il est aussi possible d'envisager de passer par l'OpenACC soutenu par de grands noms dans l'industrie pour avoir un code portable quel que soit le système et les cartes de calcul utilisées au final. Selon un développeur CUDA que nous avons pris soin de contacter, le temps d'adaptation et de développement d'une application pour du GPGPU n'est pas si chronophage et permet d'obtenir des performances finales intéressantes, si et seulement si l'application finale est construite pour du calcul parallélisé, par exemple du calcul matriciel.

Nvidia accuse un peu de retard dans le lancement de ses nouvelles cartes Tesla à base de Kepler. La livraison des 18.688 cartes pour le centre Titan n'y est pas étrangère, mais la firme assure qu'il n'y aura plus de retard et que les cartes commandées dès maintenant arriveront chez les clients pour la fin de ce mois de novembre.

COMMENTAIRES

Aucun commentaire sur cet article.

Les commentaires sur ce document sont clos.

Publié le Par Denis Leclercq
Catégorie : Hardware, Carte graphique
Aucun commentaire
EN SAVOIR PLUS
POUR NOUS SUIVRE...
newsletter

ACTUALITÉS
Macworld
PCWorld