Depuis un peu plus de 2 ans, les entreprises se lancent tous azimuts dans les projets IA, en mode test en learn et POC. Quels sont aujourd’hui les enjeux de passage à l’échelle des workloads IA ?

Christophe Lacroix : L’IA a vocation à s’intégrer pleinement aux outils et processus métier des entreprises. Pour cela, elle doit reposer sur une infrastructure qui devienne un standard, avec en son cœur un composant essentiel : le GPU. Ce dernier n’est pas unique – son choix dépend du cas d’usage visé. Autour de ce socle GPU, il faut bâtir un environnement cohérent : réseau, stockage, gestion des systèmes et des données, applications… tous doivent être dimensionnés et interconnectés de manière optimale. C’est cette cohérence d’ensemble qui permet réellement de passer à l’échelle, en réponse aux besoins concrets de l’entreprise. 

Il n’y pas d’IA sans Data et pas d’IA sans Cloud. Or les architectures sont de plus en plus hybrides/multicloud et de plus en plus complexes. Quelle orchestration mettre en place ?

C.L : Effectivement, dans un environnement hybride et multicloud, orchestrer les workloads IA ne consiste pas seulement à exécuter des tâches. Il faut aussi gérer finement les ressources, localiser les données, assurer leur circulation entre les différents environnements, et respecter les exigences de gouvernance et de sécurité.

Dans ce contexte, la plateforme d'orchestration de conteneurs Kubernetes s’est imposée comme l’outil le plus souple et le plus étendu pour orchestrer les jobs multiples et divers. Elle gère aussi bien les infrastructures OnPremise et Multi-Cloud, en ce sens c’est un outil de cloudification. 
Le choix d’un Kubernetes opéré apporte des fonctionnalités supplémentaires de gestion simplifiée, d’automatisation ou de sécurité.

NVIDIA Run.ai vient apporter le niveau ultime de l’orchestration, en incluant notamment le Scheduling, le plus précis partage de GPU et l’intégration avec les outils d’infrastructures et de développement. L’objectif est d’optimiser le fonctionnement de la ressource et de l’allouer de la façon la plus fine aux nombreuses tâches pour produire l’IA.

Il n’existe donc pas qu’un seul Kubernetes et il est parfois utile de penser son utilisation avec l’orchestrateur Slurm, par exemple pour les jumeaux numériques.

Que proposez-vous pour assurer sécurité et conformité des environnements IA ?

C.L : La sécurité doit être prise en compte à chaque étape du cycle de vie d’un projet d’IA. Construire une infrastructure dédiée, c’est déjà réduire les failles. Ensuite dans la stack des outils de production, la plateforme NVIDIA AI Enterprise apporte un ensemble de logiciels d’IA optimisés et sécurisés.
Nous proposons également des solutions permettant d’intégrer et de maintenir les logiciels open source dans un environnement d’entreprise, notamment autour d’Ubuntu, l’OS de référence sur les systèmes NVIDIA. Enfin, NVIDIA recommande des blueprints incluant des mécanismes de sécurité à toutes les étapes de la production, pour garantir conformité et robustesse. 

L’évolution rapide des modèles d’IA fait exploser les besoins en puissance de calcul, notamment en GPU. Quels choix d’infrastructure privilégier pour anticiper ces besoins sans avoir à réinvestir à chaque avancée technologique ?

C.L : L’IA repose sur une technologie en constante évolution, mais cela ne signifie pas qu’il faut attendre. Au contraire : les investissements réalisés aujourd’hui serviront encore demain. Par exemple, des GPU de training très puissants hier peuvent être utilisés aujourd’hui pour des usages en inférence. Le premier réflexe à avoir est donc de partir sur une infrastructure totalement intégrée, afin de réduire les déperditions de puissance.

Le deuxième point clé est de penser en termes de ressources. Il y aura nécessairement différentes architectures, et les offres de type « Plateform as a Service » aident à unifier cette puissance de calcul, à l’orchestrer et à la distribuer pour la consommation requise en fonction du projet.  

Avec cette course à la puissance et à la performance, est-il encore possible de parler d’IA Frugale ?

C.L : L'IA frugale reste pertinente, même dans un contexte de montée en puissance. Il faut pour cela se concentrer sur l'efficacité et l'optimisation des ressources. Des techniques comme l'optimisation des modèles et l'utilisation de matériel spécialisé permettent de réduire la consommation énergétique.
Ces approches sont particulièrement pertinentes pour les appareils à ressources limitées, et favorisent la durabilité. En réalité, l'IA frugale est aussi un levier d’accessibilité et de réduction des coûts pour les entreprises.  

L’IA est au croisement des infrastructures et de la data, avec des enjeux DevSecOps… or les compétences manquent dans ces domaines. Comment accompagnez-vous les DSI pour accélérer la compétence des équipes internes ?

C.L : Notre premier levier d’accompagnement est le travail en équipe, à chaque étape du projet. L’IA est nouveau pour tout le monde. PNY a la chance de travailler un peu plus souvent que d’autres sur ces sujets. Cela nous permet de partager nos retours d’expérience et d’apprendre collectivement.

PNY propose également une offre de services étendue, qui couvre le déploiement, le support et l’exploitation de l’infrastructure matérielle et logicielle, directement ou via nos partenaires. Nous collaborons aussi avec des sociétés de conseil et de développement spécialisées. Nos intégrateurs bénéficient de cet écosystème et y apportent leur propre expertise. C’est un effort conjoint, un vrai travail d’équipe !