En moyenne, la Nvidia GeForce GTX 280 - commercialisée en juin 2008 - était 2,5 fois plus rapide que l'Intel Core i7 960 cadencé à 3,2 GHz processeur, et dans certaines circonstances jusqu'à plus de 14 fois plus véloces selon 12 chercheurs d'Intel. Ces derniers ont publié leurs observations dans un document baptisé Debunking the 100x GPU vs. CPU myth: An evaluation of throughput computing on CPU and GPU. À l'origine, cette étude devait définitivement discréditer les prétentions des puces 3D sur les processeurs Intel en comparant les performances d'un Core i7  et  d'une carte exécutant une série de tests conçue pour exploiter les capacités de traitement en parallèle de ces circuits. Comme son nom l'indique, le traitement en parallèle consiste à effectuer de multiples calculs en simultané par opposition un travail en série qui réalise les tâches dans un ordre séquentiel. 

Les puces graphiques intègrent aujourd'hui des centaines de noyaux (ou shader) qui sont utilisés pour calculer des polygones et plaquer des textures pour créer des images de plus en plus réalistes. La carte GTX280 de Nvidia intègre l'équivalent de 264 coeurs par socket, tandis que la société a récemment annoncé son GPU Tesla M20 avec 448 noyaux. Ces circuits sont donc bien adaptés au traitement en parallèle alors que les CPU du type Core i7 sont mieux adaptés au travail en série. Cela ne veut pas dire que les puces quatre coeurs d'Intel ne peuvent pas effectuer de calcul en parallèle, mais elles le font beaucoup moins bien que les GPU comme le GTX280. C'est en tout cas ce que confirme l'étude d'Intel.

« C'est un moment rare dans l'univers de la technologie quand une entreprise avec laquelle vous êtes en concurrence affirme à l'occasion d'une importante conférence que votre technologie est jusqu'à 14 fois plus rapide que la sienne » écrit sur son blog Andy Keane, responsable de l'activité calcul GPU chez Nvidia, qui a fourni un lien vers le document du fondeur de Santa Clara. 

[[page]]

Andy Keane n'a pas été impressionné par le rendement communiqué par Intel, il affirme que 10 clients de Nvidia clients ont amélioré d'un facteur 100 les performances de leurs applications optimisées pour fonctionner sur des GPU. La comparaison de performances réalisée par la firme n'a probablement pas 
utilisé les logiciels les plus optimisés qui auraient permis de meilleurs résultats souligne-t-il. Il note également qu'Intel n'a pas fourni de détails sur le code logiciel utilisé pour ces tests.

 « Ce ne serait pas la première fois dans l'histoire de l'industrie qu'Intel se voit reprocher ce type de pratique lors de benchmarks », écrit-il, en fournissant un lien vers la Federal Trade Commission américaine (en charge du contrôle des pratiques commerciales anticoncurrentielles) lors d'une procédure antitrust entamée contre Intel en 2009. 

Dans cette action, la FTC fait valoir que des précédents résultats de tests rapportés par Intel « ne sont pas des mesures précises, ni réalistes quant à l'utilisation ou la performance d'ordinateur ordinaire, parce qu'elles n'ont pas été réalisées dans un cadre proche des «conditions réelles». 

Indépendamment des différences techniques entre processeurs et GPU, les puces graphiques sont aujourd'hui utilisées dans les systèmes informatiques haute performance, comme sur le super computer chinois Nebulae. Deuxième calculateur le plus puissant au monde combine en effet Intel Xeon et circuit 3D Nvidia. L'ajout de GPU à un système de ce type peut sensiblement augmenter les performances, tout en réduisant les coûts et la consommation d'énergie par rapport aux systèmes reposants sûrs de processeurs, a expliqué Iouri Drozdov, CEO du fabricant de supercomputer Novatte basé à Singapour. 

L'année dernière, Novatte a construit un système pour une banque qui voulait baisser le prix de ses machines. Le supercomputer, dont le coût dépasse le million de dollars, repose sur 60  processeurs Intel Xeon et 120 GPU Nvidia. Un système aux performances similaires utilisant uniquement des Xeon coûterait 1,6 million de dollars et consommerait jusqu'à 28% de plus. Ce qui rendrait au final ce dernier plus coûteux à utiliser que le système construit avec les GPU, précise Iouri Drozdov. 

Pour sa part, Intel reconnaît l'importance d'avoir une solution de traitement en parallèle afin de compléter sa gamme processeurs. Après avoir tenter de développer sa propre gamme GPU avec le projet Larrabee (vite abandonné), en mai dernier le fondeur de Santa Clara a annoncé le développement d'une puce 50 coeurs baptisée Knights Corner, avec laquelle la société espère concurrencer efficacement  les fabricants de puces graphiques sur le segment du calcul haute performance. Intel n'a toutefois pas indiqué quand Knights Corner sera disponible.