L'essor des services et des applications basées sur l'IA a poussé les fabricants de serveurs à intégrer des accélérateurs dédiés - de type GPU ou autres FPGA - pour supporter des charges de travail spécifiques. Selon le cabinet TrendForce, les ventes de serveurs taillés pour ces besoins vont ainsi connaitre une progression sensible sur les années à venir. Une dernière étude montre ainsi que le taux de croissance annuel moyen de ce marché est estimé à 10,8 % jusqu'en 2026. D'environ 125 000 unités écoulées en 2022, ce sont près de 200 000 qui le seront à cette échéance selon la société d'études. « Ce développement répond à l'émergence de nouvelles applications telles que les voitures autonomes, l'intelligence artificielle des objets (AIoT) et l'edge computing depuis 2018 », explique TrendForce. Depuis, la tendance à la hausse de ce segment de marché de serveurs est aussi bien entendu poussé par la percée des usages liés aux applications d'IA générative avec en tête la montée en puissance des agents conversationnels comme ChatGPT.

Les géants du cloud, très grands consommateurs devant l'éternel de serveurs, se tournent bien évidemment aussi massivement vers des modèles taillés pour leurs besoins IA toujours plus gourmands en capacités de traitements. C'est le cas de Microsoft, qui a investi massivement dans OpenAI et commence à greffer des fonctions du chatbot ChatGPT dans plusieurs de ses produits (moteur de recherche, Viva, Dynamics 365...). Mais aussi de Google qui met les bouchées doubles sur son chatbot Bard, Meta avec BlenderBot (aux débuts peu glorieux ), AWS avec Chatbot... Aux côtés des habituels Gafam, les fournisseurs chinois sont aussi très friands de serveurs dopés à l'IA - comme les DGX de Nvidia - pour leurs services. Alors que Baidu développe son chatbot IA (Ernie), c'est aussi le cas de Bytedance, la maison-mère de Tiktok qui a annoncé se lancer sur ce marché.

L'accélérateur Nvidia A100 se décline dans une version bridée en bande passante pour le marché chinois avec la version A800. (Crédit Nvidia)

Nvidia règne sur le marché des accélérateurs

Les configurations de serveurs sur lesquelles reposent les services de chatbot des fournisseurs embarquent plusieurs type d'accélérateurs. Par exemple, concernant ChatGPT tournant dans le cloud Azure, les serveurs choisis - estimés au nombre de 25 000 unités - ont adopté des GPU Nvidia A100. Après avoir utilisé des serveurs (estimés à 2 000 unités) contenant les mêmes composants, Baidu a maintenant opté pour des GPU A800. « L'enquête de TrendForce a révélé que sur le marché des GPU pour serveur utilisés dans l'informatique liée à l'IA, les produits incluent les H100, A100 et A800 de Nvidia et les séries MI250 et MI250X d'AMD », indique le cabinet d'études. « Il convient de noter que l'A800 a été spécifiquement conçu pour le marché chinois dans le cadre des dernières restrictions à l'exportation.Ce GPU possède les mêmes capacités de calcul que l'A100, mais ne peut communiquer avec d'autres GPU dans un pool de serveurs qu'à 400 Go/s au lieu de 600 Go/s. Ce qui limite ses performances dans un cluster HPC ou un supercalculateur.

En termes de répartition par hyperscalers du nombre de serveurs IA en exploitation en 2022, Microsoft arrive en tête (19 %), devant Google (17 %), Meta (16 %), AWS (14 %), Bytedance (6 %), Tencent (2,3 %), Baidu (1,5 %), et Alibaba (1,5 %).