- Résultats Atos dans le rouge. Pour son exercice 2025, la SSII française affiche un chiffre d'affaires de 8 Md€, en recul par rapport aux 9,6 Md€ de 2024. Au 4e trimestre 2025, la société a enregistré une diminution  de son CA de 9,3 %, à 2 Md€. « La division Atos a réalisé un chiffre d'affaires de 1 738 millions d’euros, en baisse organique de –9 % par rapport au quatrième trimestre 2024, reflétant une amélioration par rapport au trimestre précédent de la trajectoire du chiffre d’affaires dans la plupart des régions, en particulier en Amérique du Nord et au Royaume-Uni et Irlande », note la SSII. Le chiffre d’affaires de l'activité Eviden est ressorti en hausse de +6,7 % par rapport à l’exercice 2024, pour atteindre 1 Md€ d’euros en 2025. Mais le dernier trimestre a été plus compliqué (-11,2 %) qui s'explique par un recul de l'activité HPC qui a, rappelons le, été cédée à l'Etat. Ces annonces, conformes aux attentes, ont été saluées en bourse avec un rebond de l'action (+ 6,8 %) en clôture.

Toute la production flash 2026 de Kioxia déjà vendue. Le fabricant japonais de mémoires Kioxia a révélé que l'intégralité de sa production de NAND flash pour l'année 2026 est déjà vendue, selon les déclarations de Shunsuke Nakato, directeur général de la division mémoire de l'entreprise, au journal coréen Digital Daily. Cette situation résulte de la demande massive des fournisseurs de solutions d'intelligence artificielle, qui crée une tension extrême sur l'approvisionnement en mémoires. M. Nakato prévient que cette situation devrait perdurer jusqu'en 2027, alimentée par les investissements massifs dans l'IA que les entreprises technologiques poursuivent par crainte d'être distancées. Face à cette pénurie, Kioxia maintient ses engagements contractuels avec ses clients historiques plutôt que d'adopter une approche opportuniste, bien que ces derniers doivent accepter des hausses de prix atteignant 30% en glissement annuel. L'entreprise compte néanmoins améliorer la situation en optimisant ses usines de Yokkaichi et Kitakami, cette dernière devant atteindre sa pleine capacité de production courant 2026. 

Le MIT planche sur des modèles IA récursifs. Des chercheurs du CSAIL (Computer science  and artificial intelligence laboratory) du MIT ont mis au point une technique d’inférence baptisée RLM (recursive langage models) pour optimiser le traitement des LLM face aux prompts très long. Le RSM crée un espace Python REPL (Read-Eval-Print Loop) en dehors de la fenêtre contextuelle. Le LLM peut ainsi d’examiner et décomposer certaines parties du prompt. Il peut aussi raisonner sur des millions de tokens sans réentraînement, selon les chercheurs. Ceci offre aux entreprises une solution pratique pour les tâches à long terme telles que l'analyse de code, la documentation juridique et le raisonnement multi-étapes, qui mettent régulièrement à l'épreuve les modèles actuels.