Depuis quelques temps, Nvidia martèle l'idée que ses GPU ne riment plus avec Graphic Processor Unit mais davantage avec General purpose Processor Unit. Le principe ? Ses puces, capables de traitements graphiques puissants, sont aussi capables de mener à bien n'importe quel type de calcul haute performance. Le constructeur en veut pour preuve sa dernière famille de processeurs, la gamme Tesla qui, qui malgré une architecture similaire aux puces graphiques, est destinée à entrer dans des machines que le constructeur nomme « supercalculateur » de bureau. Ces systèmes s'appuient en fait sur un quadricoeur AMD ou Intel sous Windows XP, Suse ou RHEL avec jusqu'à quatre Tesla complémentaires pour le calcul. Des puces qui incluent 240 coeurs chacune. Selon Nvidia, une telle machine devrait atteindre une performance de 4 Teraflops. Cerise sur le gâteau, les machines dopées par Tesla sont également plus économes (jusqu'à 100 fois moins chères qu'un cluster de puissance équivalente selon Nvidia) et moins gourmandes en énergie (20 fois moins d'électricité que le même cluster, toujours selon Nvidia).Parmi les constructeurs qui construisent des systèmes à base de Tesla, on trouve le français Carri, mais aussi Lenovo, Asus, Dell. Le langage Cuda pour paralléliser les applications Tesla est particulièrement adapté au traitement d'applications massivement parallèles : sismographie, imagerie médicale, simulation financière, séquençage du génome, etc. Pour adapter de telles applications, Nvidia propose son propre langage Cuda qui s'appuie sur C++ et est intégré en standard sur toutes ses puces vendues depuis mai 2005. Les développeurs devront donc réécrire leurs applications dans ce langage. Avec 25 000 développeurs l'utilisant, la base d'applications va croissant, mais il s'agit principalement de logiciels ad-hoc développés par des scientifiques pour répondre à des besoins ponctuels. Cela n'empêche pas Nvidia de promouvoir les universités et les professeurs enseignant Cuda en leur remettant des prix d'excellences généreusement dotés aussi bien financièrement que matériellement. Ainsi, l'université anglaise de Cambridge vient d'être nommée Centre d'excellence Cuda pour l'Europe et s'est vu offrir un cluster rassemblant 32 unités Tesla S1070 (soit 128 GPU), pour une performance totale de 128 Tflops.