Spécialiste français depuis 55 ans dans la vente en ligne de véhicules (occasions ou neufs avec promotion), le conseil et l'information automobile (Caradisiac) le groupe La Centrale s'est jeté - comme d'autres marques du secteur tel que Spoticar - dans le grand bain de l'IA. Avec d'abord pour commencer en juin 2024, un assistant. « L'idée était simple, transformer l'expérience de recherche des utilisateurs en une expérience plus naturelle, en les laissant parler avec notre plateforme pour que l'IA les guide vers les bons véhicules », a expliqué Fabien Roussel, directeur de l'architecture IT de La Centrale, lors d'un retour d'expérience dans le cadre de l'AWS Summit Paris 2026 du 1er avril dernier. Avec à la clé un certain succès : « 95 % des réponses de l'IA sont adaptées à la recherche des utilisateurs et le taux de conversion de leads est doublé par rapport à celui de la recherche avec filtres classiques », poursuit-il.

Aujourd'hui, le groupe revendique une vingtaine de cas d'usage opérationnels IA en production. Dont free text search (fonction de recherche de véhicules en langage naturel issue de l'assistant IA intégrée directement au parcours de recherche de l'utilisateur), le mot du vendeur (génération automatique de descriptions d'annonces basées sur les données des véhicules pour les rendre plus attractives). Ou encore pilot price IA, intégré dans une plateforme SaaS pour ses clients BtoB, pour mieux déterminer le prix d'un véhicule, de le vendre plus vite et au bon prix. Depuis 2026, l'entreprise a accéléré la cadence avec 2 à 3 nouveaux cas d'usage IA déployés en production. Pour y parvenir, elle a mis en place sa plateforme de GenAI reposant sur 5 principes : gestion du contexte (avec la base de données DynamoDB), orchestration et exécution des loops de tools (avec du serverless Lambda), observabilité des agents en production, le registry des configurations sans avoir à déployer du code, mis dans un bucket S3 centralisé. « A chaque fois que l'on modifie une configuration d'agent, nous en publions une nouvelle dans ce bucket qui est immuable », précise Fabien Roussel. Sans oublier de l'A/B testing pour s'assurer que la dernière configuration est meilleure qu'auparavant.

Pour soutenir ses projets multi-agents, La Centrale a notamment déployé AgentCore et ses trois modules runtime, memory et gateway a expliqué Fabien Roussel, directeur de l'architecture IT de La Centrale. (crédit : DF)

Une orientation vers le multi-agents

Fort de ces implémentations, La Centrale a tiré plusieurs enseignements mais aussi des limites de sa plateforme. A savoir un manque d'adaptation pour du multi-agents, un effort d'implémentation personnalisé pour se brancher par exemple en direct avec OpenAPI - bien qu'elle s'appuie sur Bedrock -, et une pertinence qui s'effrite au fur et à mesure que les différents frameworks IA du marché sont de plus en plus matures. Pour les dépasser, la société a donc déployé la V2 de sa plateforme en s'appuyant sur AgentCore et Strands Agents d'AWS. Concernant AgentCore, trois modules ont été mis en place : runtime pour simplifier le déploiement des agents (en remplacement de Lambda Converse API), memory pour la gestion du contexte (remplace DynamoDB), et gateway pour connecter des outils à des agents avec MCP (model context protocol). « Cela vient remplacer l'orchestration un peu custom que l'on a fait avec Lambda sur la v1 », poursuit Fabien Roussel. S'agissant de Strands Agents, un framework applicatif dont le SDK est disponible en Python ou Node.js, il est utilisé pour simplifier le code et le développement des agents. Avec à la clé la capacité de développer du multi-agents sans avoir à écrire du code spécifique de collaboration et d'orchestration de ces agents, une l'intégration native avec OpenAI ou d'autres fournisseurs IA en direct en s'appuyant toujours sur Bedrock Converse API.

En combinant ces outils, La Centrale s'est ainsi donnée les moyens d'aller plus loin dans la plateformisation et l'accélération de ses cas d'usage IA. « Pour notre assistant, nous sommes passés d'une architecture mono agent à une multi agent qui s'appuie sur un agent principal, orchestrateur, qui qualifie la demande des utilisateurs et y répond s'il peut ou alors il délègue la tâche à un agent spécialisé dans le conseil auto (Caraguide agent) ou la recherche de véhicules (free text search agent) », explique Fabien Roussel. Et de poursuivre : « Strands Agents nous permet de faire du multi-agents simplement en encapsulant des agents spécialisés en tant qu'outil ». Un exemple concret avec l'agent Caraguide qui a ses propres capacités, dont du RAG (retrieval augmented generation), pour aller chercher de l'information en plus dans une base de connaissances déployée sur Bedrock et alimentée par les données du site Caradisiac. Résultat : l'agent va apporter une réponse avec l'expertise Caradisiac et non pas seulement avec la connaissance générale du LLM. Dans cet environnement, chaque agent est déployé dans son propre runtime Agentcore garantissant une isolation et les rendant indépendants les uns des autres sans toutefois les empêcher de communiquer entre eux.

Des enjeux aussi sur les contenus éditoriaux et le SEO

Autre cas d'usage évoqué lors de cette intervention : la transformation de contenus éditoriaux avec un workflow de plus de 25 agents qui vont travailler ensemble avec pour objectif d'intégrer la société au plus tôt dans le parcours amont de recherche des utilisateurs. « La Centrale est très bien positionnée dans la phase de recherche transactionnelle quand l'utilisateur sait déjà quel véhicule il recherche mais l'est beaucoup moins bien quand il va vouloir comparer des modèles, lire des avis, des tests », fait savoir le responsable. Pour répondre à cet enjeu, le groupe a lancé les essais auto avec trois objectifs : « générer du contenu exclusif et SEO friendly sur la Centrale à partir des données du site Caradisiac, apporter de l'expertise et de l'aide à la décision aux utilisateurs en début de parcours, et améliorer notre positionnement et capter plus de trafic », poursuit le directeur de l'architecture IT.

La Centrale se sert de l'IA pour adapter ses contenus éditoriaux entre ses différents sites, avec par exemple encadré en bleu un article original sur Caradisiac et en rouge celui réécrit par l'IA publié sur La Centrale. (crédit : DF)

Le workflow agentique de La Centrale en matière de transformation éditoriale s'articule autour de 25 agents (travaillant les uns avec les autres et n'ayant pas vocation à le faire de façon séparer) à date, répartis en 5 grandes catégories : extraction, réécriture, création, relecture et publication des contenus. Deux indicateurs de performance sont mis en avant : pour un workflow agentique complet sur un article le traitement dure 10 mn en moyenne pour un coût LLM de 1$ HT, les coûts de compute étant considérés comme anecdotiques. Que ce soit aussi bien pour les cas d'usage multi-agentique conversationnel ou de type workflow, La Centrale a mis en place une gateway MCP pour déployer des serveurs MCP managés. Enfin côté sécurité, on retiendra qu'il s'appuie sur AgentCore Identity pour gérer différents types d'authentification.