Présenté en 2024 - et mis à jour lors du dernier Dell World 2025 - l'AI Factory combine une variété de composants d’infrastructure (stockage, réseau...) mais aussi de services et applications pour aider les entreprises dans leurs projets IA. Le fournisseur annonce enrichir en particulier sa gamme de serveurs PowerEdge pour améliorer les performances de l’entraînement des LLM et l'inférence en temps réel. Les modèles XE9785 (disponible en décembre) et XE9785L (déjà disponible) sont ainsi optimisés pour les charges de travail IA et HPC à grande échelle. Le XE9785 (10U) refroidi par air et le XE9785L (3U) avec liquid cooling, intègrent des processeurs AMD Epyc bi-socket et jusqu’à huit GPU Instinct MI355X par nœud. Ces systèmes prennent en charge des interconnexions haut débit via les cartes réseau IA Pensando Pollara 400 d'AMD et s’intègrent avec les commutateurs PowerSwitch AI pour garantir une faible latence et une bande passante optimisée. Pour répondre aux besoins de traitement parallèle intensif la société a aussi présenté le PowerEdge R770AP (commercialisé en décembre) qui intègre des processeurs Intel Xeon 6 P-core série 6900 et supporte la technologie d’interconnexion CXL.

Le stockage est bien sûr au centre de la stratégie AI Factory du fournisseur texan avec des évolutions notables pour la gamme PowerScale (stockage en mode fichier scale-out). Cette dernière sera ainsi disponible dans le courant du 1er semestre 2026 sous forme de licence logicielle indépendante déployable sur des serveurs PowerEdge certifiés, tels que le modèle R7725xd. Cette annonce s’inscrit dans le cadre du renforcement de la stratégie software defined du groupe. A noter aussi le support pour PowerScale l’an prochain de NFS parallèle (pNFS) avec Flexible File Layout via le projet Lightning en gestation depuis 18 mois.

Maximiser le parallélisme des traitements

« Cette avancée favorise une distribution optimisée des données sur plusieurs nœuds d’un cluster PowerScale, offrant un débit supérieur, des gains de performance et une scalabilité linéaire grâce à des E/S parallèles multi-chemins », explique Dell Technologies. « Conçue pour maximiser le parallélisme, cette mise à jour répond aux workflows IA les plus exigeants en garantissant une évolutivité et une puissance de traitement accrues. » De son côté, ObjectScale (stockage objet) voit ses capacités pour l'IA améliorées avec le support de S3 Tables et de S3 Vector, et deux API conçues pour un accès direct aux données complexes sont aussi annoncées. « Ces fonctions optimisent les workflows IA critiques tels que l’inférence et le RAG, grâce à une indexation vectorielle et des requêtes parallèles, offrant un débit élevé et une scalabilité adaptée aux environnements multicloud », assure l'entreprise.

Côté infrastructure réseau, le groupe a également dévoilé ses derniers commutateurs PowerSwitch Z9964F-ON et Z9964FL-ON, qui intégre la dernière puce réseau Tomahawk 6 de Broadcom supportant des déploiements de plus de 100 000 accélérateurs IA (XPU) et doublant la bande passante de son prédécesseur en passant à 102,4 térabits par seconde (Tbps). « Ces commutateurs accélèrent les charges de travail IA et les calculs HPC, prenant en charge des déploiements à grande échelle refroidis par air ou liquide », explique le fournisseur. Le support de Sonic Distribution, la version pour entreprise de Dell du système d'exploitation réseau open source, sera disponible au 1er semestre 2026.

Le déploiement de solutions IA facilité

A noter par ailleurs que la société annonce aussi intégrer à son AI Factory sa plateforme d’automatisation pour déployer de façon sécurisée des solutions IA comme Tabnine pour l’assistance au code, et Cohere North pour automatiser les workflows et optimiser la performance des déploiements IA agentique. « Les blueprints de workloads d’IA sont disponibles dès maintenant en aperçu technique. Les pilotes de cas d’usage IA des services Dell sont disponibles dès maintenant à l’échelle mondiale », précise par ailleurs le fournisseur.