Soyons honnêtes. Si vous êtes développeur Java dans une banque ou développeur JavaScript chez un e-commerçant, vous avez probablement passé votre carrière à ignorer joyeusement le matériel informatique. Qui s'en soucie ? C'est à cela que sert le cloud. Et Nvidia ? C'était pour les gamers, les mineurs de cryptoactifs ou les docteurs en IA qui jouaient avec des modèles gigantesques. Pour les « vraies » applications d'entreprise ? Pas vraiment. Le matériel sous-jacent était le problème de quelqu'un d'autre. Sauf que ce n'est plus le cas. 

Comme l'a souligné à plusieurs reprises le développeur Simon Willison, la pile IA moderne suppose que vous disposez d'un GPU Nvidia et de son framework Cuda (compute unified device architecture). Ce n'est plus un problème académique de niche. À mesure que les fonctionnalités IA s'intègrent à toutes les applications imaginables, cela devient rapidement votre problème. Mais pourquoi un développeur chez Kroger ou Morgan Stanley, plongé jusqu'au cou dans les applications Spring Boot ou les interfaces React, devrait-il se soucier d'un fournisseur de composants ? La réponse est simple : parce que Nvidia n'est plus seulement un fournisseur de puces C'est une société de logiciels, un fournisseur de plateformes, et elle est de plus en plus présente dans l'informatique d'entreprise grand public. 

La prochaine étape de Nvidia 

La direction de la firme de Santa Clara est loin d'être stupide. La société voit une opportunité un marché évalué à un 1 000 Md$ et sait qu'elle ne peut pas se contenter de vendre du silicium (même si cela a été rentable). L'argent réel, et la véritable fidélisation, se trouvent dans les logiciels. C'est le scénario classique des plateformes. Apple a l'App Store, AWS a son univers d'instances et Nvidia a Cuda. Depuis des années, Cuda est la norme, créant un fossé profond et exclusif que AMD et Intel ont du mal à franchir. Mais le framework est difficile à appréhender. Il est réservé aux spécialistes. Pour le développeur d'entreprise moyen, c'est une plateforme complexe (ou du moins, difficile à exploiter pour démarrer un premier projet IA). 

La brillante initiative (et franchement tardive) de Nvidia consiste à faire abstraction de cette complexité. L'entreprise a construit une pile logicielle au-dessus de son framework, spécialement conçue pour les développeurs d'entreprise qui ne veulent pas apprendre le calcul parallèle de bas niveau. Au lieu de vous obliger à devenir un expert en GPU, elle propose des solutions telles que NIM (Nvidia inference microservices). Il s'agit d'un terme sophistiqué pour désigner ce que vous connaissez déjà : les API. C'est une initiative intelligente. 

En tant que développeur d'entreprise, vous n'avez pas besoin de savoir comment fonctionne un LLM ; il vous suffit d'appeler un microservice conteneurisé qui fonctionne à très grande vitesse sur le matériel Nvidia. Les fournisseurs de cloud se précipitent pour se lancer dans l'aventure. Oracle [employeur de Matt Asay qui a rédigé cet article, ndlr] est l'un des nombreux acteurs à miser sur cette technologie, en proposant nativement la pile complète Nvidia AI Enterprise. L'objectif est de rendre l'IA aussi ennuyeuse et consommable qu'une requête de base de données. Et ils y parviennent en intégrant leur accélération aux outils que les entreprises utilisent déjà, plutôt qu'en imposant une refonte massive de la plateforme. 

Pourquoi les développeurs doivent-ils vraiment s'y intéresser ? 

Bien sûr, tous les développeurs d'entreprise n'ont pas besoin de maîtriser personnellement la plateforme Nvidia. Si vous êtes un développeur web front-end travaillant sur un portail client ou un développeur back-end créant une logique métier dans un système de paie, vos préoccupations quotidiennes ne concernent peut-être pas du tout les GPU. Il est tout à fait possible d'écrire du code Java ou JavaScript pendant des années sans se soucier de qui fabrique le matériel sous-jacent. Vous ne touchez pas à un GPU, n'est-ce pas ? Peut-être. Mais pour combien de temps encore ? 

La tendance dans le domaine des logiciels est que de plus en plus d'applications acquièrent des fonctionnalités « intelligentes » ou des composants basés sur les données. De plus en plus, chaque développeur voudra accélérer les charges de travail lourdes en données ou intégrer des fonctionnalités intelligentes dans ses logiciels. Un site web de vente au détail ajoute un moteur de recommandation (probablement alimenté par un modèle d'apprentissage automatique). Une application métier interne se dote d'une interface chatbot pour les employés. Le CMS d'une entreprise de médias commence à baliser automatiquement le contenu à l'aide de l'IA. Ce sont là des fonctionnalités qui font leur apparition dans des logiciels autrefois basiques. À mesure qu'elles se développent, les développeurs responsables devront prendre des décisions quant à leur mise en œuvre. C'est là que la connaissance de l'écosystème Nvidia devient précieuse, même si vous n'êtes pas un spécialiste de l'IA. C'est également là que le bât blesse. Comme le note Willison, la « courbe d'apprentissage abrupte de Nvidia+CUDA » constitue un véritable obstacle. Les développeurs d'entreprise sont très occupés. Ils n'ont pas le temps de devenir des scientifiques des données. C'est le travail de quelqu'un d'autre, n'est-ce pas ? Nvidia en est conscient. L'ensemble de sa stratégie AI Enterprise et NIM sont une réponse directe à cette friction avec les développeurs. Elle doit faciliter les choses, sinon les entreprises continueront à se contenter de solutions « suffisantes » basées sur des processeurs ou attendront que les hyperscalers proposent des solutions encore plus simples. 

Par où commencer 

Quelle est donc la voie pragmatique à suivre ? Pour commencer, ne vous inscrivez pas à un doctorat en mathématiques computationnelles. (Je veux dire, vous pouvez le faire, mais pas pour créer une application de détection des fraudes pour une banque.) 

- Commencez modestement. Le programme pour développeurs Nvidia est gratuit. Leurs laboratoires LaunchPad vous permettent d'essayer la pile complète dans un environnement guidé sans avoir à acheter un GPU pour plusieurs milliers de dollars. 

- Résolvez un problème réel. N'apprenez pas pour le simple plaisir d'apprendre. Trouvez un véritable goulot d'étranglement. Le traitement des données dans Apache Spark prend des heures ? Essayez l'accélérateur RAPIDS pour Spark. L'inférence de votre modèle est lente ? Voyez si la configuration d'un serveur d'inférence Triton peut vous aider. 

- Recherchez des intégrations. Moins vous avez de nouveautés à explorer, mieux c'est. Vérifiez si vos plateformes existantes (VMware, votre fournisseur de base de données, votre plateforme MLops) disposent déjà d'une intégration Nvidia. 

- Mesurez. Lancez un projet pilote rigoureux. Obtenez des mesures. Montrez à votre responsable une accélération de 10 fois ou une réduction massive des coûts. C'est ainsi que vous justifiez le coût et la courbe d'apprentissage. 

Il ne s'agit pas de flatter Nvidia. Il s'agit de reconnaître la direction que prend le secteur et de s'assurer que vous suivez le mouvement. Vous avez pu ignorer Nvidia en toute sécurité pendant la majeure partie de votre carrière. Ce n'est plus le cas aujourd'hui. L'IA n'est pas une chose à part, elle devient une fonctionnalité de toutes les applications. Et à l'heure actuelle, le chemin le plus facile vers une IA performante passe directement par la pile logicielle de Nvidia. Si vous utilisez Apache Spark ou si vous mettez en production des fonctionnalités d'IA, vous devez vous en préoccuper dès maintenant. Si vous expédiez des CRUD (create, read, update, delete) et des rapports occasionnels, vous devrez bientôt vous en préoccuper, et surveiller à quelle vitesse ce « bientôt » arrivera. La véritable victoire de Nvidia ne réside pas dans ses prouesses matérielles, mais dans le fait qu'elle rend l'accélération ennuyeuse au sens le plus positif du terme pour les entreprises : une importation de bibliothèque, un plug-in, une vignette de service dans la console que vous utilisez déjà. C'est pourquoi les développeurs d'entreprise devraient (pour la plupart) s'en préoccuper.