La keynote d'ouverture de SuseCon 2026, tenue le 20 avril à Prague, a donné le ton d'une semaine résolument tournée vers l'intelligence artificielle et l’open source. Jeff Price, global head of domain solution architecture chez Suse, a ouvert les travaux en posant les bases d'une architecture IA complète, construite en direct devant le public. Premier élément indispensable : le moteur d'inférence. « Notre registry nous permet de prendre ces conteneurs, de les patcher, de les rendre plus sécurisés, de fournir un SBOM (software bill of materials), de parler d'attestation, de niveaux de SLA - pour que votre RSSI sache que ce code a été construit par quelqu'un et selon des processus en lesquels nous avons confiance », a-t-il expliqué, résumant l'apport concret de Suse AI dans la chaîne de sécurité logicielle. 

Parmi les interfaces open source disponibles - llama, vLLM, CTP - Suse recommande Ollama, intégré à sa stack Suse AI, pour les déploiements souverains on-premise. La session a également mis en lumière l'émergence de modèles très spécialisés. Jeff Price a cité en exemple le modèle MedGemma de Google : « C'est un petit modèle qui dispose de beaucoup d'informations médicales, texte et images — un modèle de vision comprenant des radios, des IRM. Et ces modèles sont suffisamment petits pour tourner sur du matériel d'inférence très compact. Imaginez construire une solution médicale capable de dire "ça ne semble pas bon" et évaluer cela sur un modèle fonctionnant en edge. C'est là tout l'intérêt. » 

La souveraineté, fil rouge de la conférence 

La question de la souveraineté numérique a structuré l'ensemble des interventions. Erin Quill, technology evangelist chez l’éditeur allemand, a d'emblée recadré le sujet en posant une question directe à la salle : qui pense que son entreprise est souveraine à 100% numériquement ? Résultat : aucune main levée. « C'est difficile à atteindre, car la souveraineté est une échelle. Quand on parle de souveraineté, les gens disent surtout que c'est une question de données - savoir où vivent vos données, sous quelle juridiction elles sont couvertes. Mais la souveraineté va plus loin : c'est connaître vos dépendances, savoir de quelles entreprises vous dépendez, et c'est aussi vos workloads - pouvoir les porter d'un hyperscaler à un autre, voire les ramener on-premise si nécessaire », a-t-elle précisé. Ce constat est corroboré par l’étude Suse « Navigating Digital Resilience 2026 », menée auprès de 309 décideurs IT dans le monde, qui révèle que 98% d'entre eux font de la souveraineté numérique une priorité, et que plus de la moitié est déjà passée à l'action. Le choix du modèle LLM est lui-même devenu, selon Erin Quill, un enjeu de souveraineté à part entière : « Qwen vient de Chine, GPT en open source est un modèle communautaire, Gemma vient des États-Unis, Mistral est un modèle européen. Le modèle que vous choisissez est donc aussi un choix de souveraineté. » Démonstration à l'appui, Suse a présenté une stack IA souveraine entièrement auto-hébergé, opéré sans dépendance à un hyperscaler extérieur, sur du matériel accessible (une machine Nvidia à 4 000 dollars et un nœud à 1 000 dollars). Erin Quill a insisté sur la réalité concrète de la démonstration : « Nous avons apporté notre propre stack d'IA souveraine. Il n'y a aucune dépendance, aucun hyperscaler impliqué pour le GPU. Tout est ici. » 

Evangéliste technologique chez Suse, Erin Quill a détaillé lors de cette SuseCon 2026 les nouveautés de la plateforme open source (Crédit S.L.)

Suse AI, agents et MCP : l'IA s'intègre dans l'infrastructure 

La troisième grande thématique de la keynote portait sur la mise en œuvre pratique des agents IA et du protocole MCP (Model Context Protocol), récemment reversé à la Linux Foundation. Jeff Price a proposé une définition claire de ce qu'est un agent IA : « L'agentivité, c'est d'abord accorder sa permission à quelque chose d'agir en votre nom. Un agent IA dispose généralement d'un grand modèle de langage, d'un système de mémoire - court, moyen et long terme -, d'outils et d'un modèle de chat. MCP est le protocole qui standardise la façon dont on se connecte à ces serveurs MCP. » Plusieurs démos ont illustré des cas d'usage concrets : agent de notification multi-canal (Discord, Slack, SMS, WhatsApp), agent de documentation automatique, agent de test continu. 

Le MCP a été présenté comme une révolution analogue à l'arrivée de l'USB dans les années 1990 : une interface universelle qui permet à un système IA de découvrir automatiquement les capacités d'un outil connecté, sans configuration manuelle. Suse a ainsi montré des intégrations MCP pour SLES (gestion de snapshots en langage naturel), pour Trento (monitoring SAP automatisé avec rapports Slack générés à la volée) et pour Multi Linux Manager (gestion de parcs de 90 000 nœuds, génération de playbooks Ansible). « Ces agents permettent de formater et d'interpréter les données sans difficulté, c'est naturel pour un système qui comprend le langage. Je peux lui demander de construire un playbook Ansible et un état Salt, et de les écrire sur le système de fichiers local pour les relire ensuite », a illustré Jeff Price. 

Rancher Prime et Liz : l'IA native dans Kubernetes 

L'annonce la plus attendue sur le volet Kubernetes a été la présentation de Liz, l'assistant IA intégré nativement dans Rancher Prime. Contrairement à ce que son prénom pourrait laisser penser, Liz ne s'appelle pas ainsi en référence au prénom féminin Elizabeth : le nom évoque plutôt « Lizard » - comme dans le lézard du logo Suse - voire « Wizard » (sorcier), soulignant l'idée d'une intelligence capable de « faire de la magie » au sein de l'infrastructure Kubernetes, nous a expliqué le CTO de Suse Thomas Di Giacomo. Erin Quill a décrit le positionnement de Liz avec clarté : « Liz a une directive principale : nous avons dit à Liz exactement ce que nous voulons qu'il fasse. Nous voulons nous assurer que Liz ne causera aucun dommage aux clusters, qu'il nous sera bénéfique sans rien casser. C'est pourquoi Liz dispose d'un outil de validation humaine : chaque fois qu'il souhaite créer un cluster, le modifier, ou créer un projet, il doit s'arrêter et consulter un humain. » 

Concrètement, Liz s'appuie sur une collection d'agents spécialisés (fleet, provisioning, sécurité, Linux, observabilité) pilotés via un MCP Rancher propriétaire. La démonstration live a montré Liz diagnostiquer et corriger automatiquement une sonde d'état défectueuse, détecter 104 vulnérabilités CVE dans une préversion d'Argo CD et proposer en remplacement une version durcie disponible dans l'Application Collection Suse - avec zéro CVE critique. « Nous ne demandons pas à Liz où chercher : il sait que nous voulons des applications durcies, il requête automatiquement le bon MCP et trouve si une version sécurisée est disponible », a précisé Erin Quill. L'extensibilité est au cœur du dispositif : tout MCP tiers ou développé en interne peut être connecté à Liz, qui orchestre alors l'ensemble de l'environnement. La démonstration finale - Liz distribuant des bières aux participants selon les droits d'accès Rancher - a illustré avec humour jusqu'où peut aller cette logique d'intégration. « Il suffisait de lui demander. L'agent que j'ai codé avec de l'IA en quelques heures s'est intégré directement dans la console Rancher via Liz », s'est réjoui Erin Quill.  

Suse Virtualization : accompagner la migration post-VMware 

La dernière partie de la keynote a abordé Suse Virtualization, la plateforme de virtualisation open source de l'éditeur, qui cible directement les entreprises cherchant à s'affranchir de VMware après les bouleversements tarifaires imposés par Broadcom. Erin Quill a présenté la proposition de valeur : « Suse Virtualization vous offre une plateforme qui permet de faire converger vos VM et vos workloads cloud-native sur une seule et même plateforme. Il n'est plus nécessaire d'avoir un hyperviseur d'un côté et une stack cloud-native de l'autre, gérés par deux équipes avec deux outils différents. » La plateforme est certifiée avec de nombreux fournisseurs de stockage (Dell EMC, HPE, Pure Storage, NetApp, entre autres). 

Parmi les nouveautés annoncées pour la version 1.8, on retiendra : le VM auto balancing (migration live automatique des VM selon des seuils de charge CPU/mémoire paramétrables) avec d’autres hyperviseurs reposant sur KVM, le support du MIG (Multi-Instance GPU) pour les cartes Nvidia B200 permettant de partitionner physiquement un GPU en plusieurs instances isolées, et une vue topologique réseau pour visualiser et sécuriser les connexions entre VM, hyperscalers et réseaux souverains (via l'implémentation QMobile). Une session dédiée à la migration de VMware vers Suse Virtualization est prévue dans le programme de la semaine. Il convient toutefois de noter que la démarche ne suscite pas un enthousiasme unanime en interne : un dirigeant de Suse nous a confié, en marge de la conférence, qu'il n'était « pas très chaud » à l'idée de travailler sur la migration des VM VMware, qu'il considère un peu comme du « Cobol » - un héritage fonctionnel mais vieillissant - et qu'il préférait orienter les entreprises vers une plateforme plus moderne reposant sur les conteneurs. Une vision qui reflète la tension, bien réelle dans le secteur, entre la nécessité d'accompagner les migrations à court terme et l'ambition de promouvoir des architectures cloud-native à long terme.