Start-up et intelligence artificielle sont des mots qui vont très bien ensemble... en tout cas pour Inflection AI, une jeune pousse originaire de Palo Alto. La start-up, qui développe en particulier une technologie d'intelligence artificielle générative concurrente de ChatGPT baptisée pi.ai, a tapé dans les yeux des investisseurs. La société a ainsi annoncé fin juin une levée de fonds de 1,3 Md$ dans un tour de table mené par Microsoft, Reid Hoffman (co-fondateur de LinkedIn), Bill Gates (cofondateur de Microsoft), Eric Schmidt (ex CEO de Google) auquel a participé un nouveau venu de poids Nvidia. Si l'on tient compte le première levée du groupe de 225 M$ auprès de Greylock, Microsoft, Reid Hoffman, Bill Gates, Eric Schmidt, Mike Schroepfer, Demis Hassabis, Will.i.am, Horizons Ventures et Dragoneer, le montant global des fonds accordés atteint 1,525 Md$.

Cet apport va financer le développement de pi.ai et d'un gigantesque cluster composé de 22 000 accélérateurs H100 Nvidia. Quand on connait le tarif unitaire de chacun de ces cartes - 30 000 $ environ après remise - un rapide calcul fait ressortir une facture de 660 M$. Sachant que pour fonctionner, ce type d'environnement nécessite également d'autres briques classiques, mais non moins essentielles (serveurs, mémoire, stockage, réseau...).

Une puissance de calcul espérée à terme de 22 exaflops 

Avec cette infrastructure, Inflection AI compte appuyer la formation et le déploiement d'une prochaine génération de modèles d'IA à grande échelle, atteignant une puissance de calcul théorique de 22 exaflops à terme. Soit bien plus que les 2 exaflops potentiellement atteint par Aurora, le monstrueux supercalculateur d'Intel et HPE. Mais à la différence du second, le système d'Inflection AI est encore loin de la mise en production ce qui n'empêche pas la société de rêver un peu.

« Nous estimons que si nous inscrivions notre cluster dans la récente liste TOP500 des supercalculateurs, il serait deuxième et proche de la première place, bien qu'il soit optimisé pour des applications d'IA plutôt que scientifiques. Le déploiement du cluster est en cours et nous avons déjà pu confirmer ses performances dans le récent benchmark MLPerf ». Pour ce dernier, 3 500 accélérateurs Nvidia H100 ont été mobilisés, ayant permis d'obtenir les meilleurs résultats pour les tests de traitement du langage naturel (NLP) LLM et BERT sur un système hébergé par CoreWeave, un fournisseur de services cloud spécialisé dans les charges de travail accélérées à l'échelle par GPU.