Cette année, un PC sur cinq vendu dans le monde devrait être équipé d'une puce dédiée à l'intelligence artificielle. En 2027, le rapport devrait passer à six ordinateurs sur dix. En valeur absolue, ces prévisions, établies par IDC, devraient se traduire par la commercialisation de 50 millions de PC IA en 2024, puis par la livraison de 167 millions de ces équipements trois ans plus tard. S'agissant des smartphones IA, Gartner table de son côté sur 240 millions de produits écoulés en 2024, soit 22 % du total des volumes de ventes de smartphones qu'il attend sur la même période.

Le traitement déporté des données d'IA n'est pas un modèle viable

Actuellement, la formation des grands modèles de langage (LLM)et le traitement des données d'IA s'effectuent dans des datacenters. Toutefois, ce modèle n'est pas viable pour diverses raisons. L'un des problèmes d'un écosystème basé sur les centres de données est la quantité massive de traitement par accélérateur GPU et d'électricité nécessaire pour faire fonctionner les LLM, ainsi que les problèmes potentiels de connectivité réseau. Or, l'industrie de la GenAI est déjà confrontée à une pénurie de processeurs spécialisés nécessaires pour former et faire fonctionner les LLM (Il faut jusqu'à trois ans pour lancer une nouvelle usine de silicium à cette fin.).

De fait, les fournisseurs d'équipements edge migrent déjà les charges de travail d'IA du cloud vers les utilisateurs finaux. Cela peut améliorer les performances en éliminant les allers-retours que les charges de travail d'IA doivent actuellement effectuer sur les réseaux. Selon IDC et d'autres, le fait de déplacer l'IA vers des puces dédiées dans les équipements edge améliorera également la confidentialité et la sécurité des données en les conservant localement. Cela peut aussi réduire les coûts, en limitant la nécessité d'accéder à des ressources dans le cloud coûteuses pour la formation des LLM et le traitement de l'inférence. Cette dernière est la capacité d'un système à faire des prédictions - qu'il s'agisse de la prochaine phrase, de la prochaine image ou de la prochaine ligne de code - à partir de nouvelles données.

La GenIA alimente la croissance de l'Edge Computing

L'intégration de la GenAI dans la transformation numérique des entreprises alimente la croissance de l'Edge computing au sens large. Cela fait de ce dernier le segment de l'informatique à la croissance la plus rapide, plus importante que celle du cloud. D'ici 2025, plus de 50 % des données gérées par les entreprises seront créées et traitées en dehors de centres de données ou du cloud, selon Gartner.

« L'adoption rapide des capacités de genAI sur les appareils et les processeurs d'IA finira par devenir une exigence standard pour les fournisseurs de technologie », déclare Ranjit Atwal, analyste chez Gartner. « Cette omniprésence va poser des problèmes aux fournisseurs pour se différencier de leurs concurrents et donc augmenter leurs revenus », ajoute-t-il. Plusieurs acteurs, notamment Nvidia, Intel et AMD, ont déjà commencé à se concentrer sur la production de chiplets SoC et de NPU dédiés. Ils aident les CPU et les GPU des équipements edge à exécuter les tâches de genAI.