Le fabricant de mémoire sud-coréen SK Hynix a annoncé que son stock de mémoire à large bande passante (HBM) était épuisé pour 2024 et pour la majeure partie de 2025. Cela signifie que la demande de HBM dépasse l'offre pour au moins un an, et que toute commande passée aujourd'hui ne sera pas satisfaite avant 2026. Cette annonce fait suite à des propos similaires tenus en mars dernier par le CEO de Micron, qui avait déclaré que la production de mémoire HBM de l'entreprise était épuisée jusqu'à la fin de l'année 2025. Cette technologie est utilisée dans les GPU et certains CPU pour serveurs pour fournir un accès extrêmement rapide aux données, bien plus qu'avec de la DRAM standard. Elle est essentielle à la performance du traitement de l'intelligence artificielle et à la simulation. Sans HBM, pas de cartes GPU. Attendez-vous à un nouveau casse-tête au niveau de la chaîne d'approvisionnement en raison de l'indisponibilité de ces composants au moins jusqu'en 2026. Peu importe le nombre de GPU fabriqués par TSMC et Intel, ces cartes n'iront nulle part sans mémoire. Hynix est le leader sur le segment du HBM avec environ 49 % de parts de marché, selon TrendForce. La présence de Micron est plus maigre, de l'ordre de 4 à 6 %. Le reste est principalement fourni par Samsung, qui n'a fait aucune déclaration quant à la disponibilité. Mais il y a fort à parier que la demande de mémoire HBM a épuisé les capacités de production du Coréen. La mémoire HBM est plus difficile à fabriquer et donc plus chère que la DRAM standard. La construction de fonderies, comme celles des processeurs, prend du temps, et les trois principaux fabricants de HBM n'ont pas pu répondre à l'explosion de la demande. 

Une mémoire très utilisée en HPC 

S'il est facile de blâmer Nvidia pour cette pénurie, il n'est pas le seul à proposer des serveurs et des accélérateurs GPU pour le HPC qui exploite intensivement cette mémoire. AMD fait de même avec ses puces Versal HBM (Ryzen+ avec un FPGA), tout comme Intel avec certaines de ses puces Xeon (série Max). Et de nombreux grands fournisseurs de services cloud - Amazon, Facebook, Google et Microsoft - construisent leurs propres processeurs personnalisés (sur base ARM) épaulés par de la mémoire HBM. Selon Jim Handy, analyste principal chez Objective Analysis, les petits acteurs restent donc à l'écart. « C'est un défi beaucoup plus important pour les petits fournisseurs. En cas de pénurie de puces, les fondeurs satisfont généralement les commandes de leurs plus gros clients et envoient leurs regrets aux petites entreprises. Cela inclut des entreprises comme Sambanova, une start-up qui propose un processeur pour l’IA basé sur la technologie HBM », a-t-il déclaré.

Les fabs de DRAM peuvent passer rapidement d'un produit à l'autre, à condition que tous les produits utilisent exactement le même processus. Cela signifie qu'elles peuvent facilement passer de la DDR4 à la DDR5, ou de la DDR à la LPDDR ou à la GDDR utilisée sur les cartes graphiques. Ce n'est pas le cas avec la HBM, car cette dernière utilise un processus de fabrication complexe et hautement technique appelé « through-silicon vias » (TSV), qui n'est utilisé nulle part ailleurs. En outre, les plaquettes doivent être modifiées d'une manière différente de la DRAM standard, ce qui peut rendre très difficile le changement des priorités de fabrication, a déclaré M. Handy. Par conséquent, si vous avez récemment passé une commande pour un GPU HPC, il se peut que vous deviez attendre. Jusqu'à 18 mois. Certains fournisseurs de serveurs l’ont bien compris et ont commencé à amasser du stock pour répondre à certains appels d’offres.