Databricks rejoint les éditeurs qui admettent discrètement que les méthodes déterministes traditionnelles peuvent être beaucoup plus performantes l'approche probabiliste de l'IA générative dans de nombreuses applications. Il a dévoilé l’architecture « Instructed Retriever » qui combine les requêtes de base de données traditionnelles à la recherche par similarité du RAG (retrieval augmented generation). Ce système vise à offrir des réponses plus pertinentes aux prompts des utilisateurs. Dans le système RAG, tout est censé être simple : récupérer les documents susceptibles d’être pertinents pour le prompt à l’aide d’une recherche par similarité, les transmettre au LLM et le laisser faire le reste.
Fractionner la recherche et la contextualiser
Mais à mesure que les entreprises rapprochent les systèmes IA de la production, cette architecture commence à s'effondrer. Les requêtes du monde réel s'accompagnent d'instructions, de contraintes et de règles métiers que la recherche par similarité seule ne peut pas appliquer, obligeant les DSI et les équipes de développement à faire des compromis entre latence, précision et contrôle. Avec Instructed Retriever, Databricks apporte une réponse à ce problème : afin d'enrichir le prompt, cette architecture décompose les requêtes en recherche spécifiques et en instructions de filtrage lors de la récupération des documents. Cela signifie, par exemple, qu'un prompt sur un produit accompagnée de l'instruction « se concentrer sur les avis de l'année dernière » peut explicitement récupérer uniquement les avis dont les métadonnées indiquent qu'ils datent de moins d'un an.
Ce mode de fonctionnement contraste avec le RAG traditionnel, qui traite les instructions des utilisateurs dans une requête comme faisant partie du prompt et laisse au modèle le soin de les concilier après la récupération des données : le RAG récupérerait des documents contenant des mots ou des concepts similaires à « avis » et à « l'année dernière », mais qui pourraient être beaucoup plus anciens ou ne pas être des avis du tout. « En intégrant directement la prise en compte des instructions dans la planification et la récupération des requêtes, Instructed Retriever garantit que les directives des utilisateurs, telles que le caractère récent et les exclusions, déterminent ce qui est récupéré dès le départ, plutôt que d'être ajoutées a posteriori », comme l'explique l'équipe Mosaic Research de Databricks dans un blog. Cette modification architecturale offre une récupération plus précise et des réponses plus cohérentes, en particulier dans les environnements d'entreprise où la pertinence d'une réponse est définie non seulement par la similitude du texte dans le prompt d'un utilisateur, mais aussi par des instructions explicites, des contraintes de métadonnées, le contexte temporel et les règles métiers.
Pas une solution miracle
Les analystes et les experts du secteur considèrent qu'Instructed Retriever comble une véritable lacune architecturale. « Conceptuellement, elle répond à un problème réel et croissant. Les entreprises constatent que le simple RAG échoue dès que l'on dépasse le cadre des requêtes étroites pour passer au raisonnement au niveau du système, aux décisions en plusieurs étapes et aux flux de travail agentiques », a déclaré Phil Fersht, CEO de HFS Research. Akshay Sonawane, responsable de l'ingénierie de l'apprentissage automatique chez Apple, estime pour sa part que la solution de Databricks sert de pont entre l'ambiguïté du langage naturel et la nature déterministe des données d'entreprise.
« Mais pour que cela fonctionne, les entreprises devront peut-être investir dans des pipelines de données qui maintiennent la cohérence des métadonnées à mesure que de nouveaux contenus sont ingérés, et établir des politiques de gouvernance pour déterminer qui peut interroger quoi, et comment ces autorisations sont mappées aux filtres de métadonnées », a-t-il ajouté. Advait Patel, ingénieur senior chez Broadcom, abonde dans ce sens, mais il prévient les DSI de ne pas considérer Instructed Retriever comme une solution miracle. Son adoption « nécessite encore un travail important. Les entreprises ont besoin de métadonnées raisonnablement propres, de schémas d'indexation bien définis et de clarté quant aux instructions que le système est censé suivre », a-t-il souligné.
Un besoin de réingénierie onéreux
« La réingénierie nécessaire pour utiliser Instructed Retriever avec succès pourrait peser davantage sur les budgets des DSI », a convenu M. Fersht. « L'adoption pourrait impliquer un investissement continu dans les bases de données et la gouvernance avant d'obtenir un retour sur investissement visible sur l'IA, ce qui exercerait une pression sur les talents, car ces systèmes nécessiteraient des compétences hybrides en ingénierie des données, en IA et en logique de domaine », a-t-il fait remarquer. Au-delà des coûts et des talents, il y a également le défi de la gestion des attentes. Selon M. Fersht, des outils comme Instructed Retriever risquent de donner l'impression que les entreprises peuvent passer directement à l'IA agentique. « En réalité, ces outils ont tendance à exposer très rapidement les processus, les données et les dettes architecturales », a-t-il déclaré. Cette dynamique pourrait conduire à une adoption inégale entre les entreprises. Selon Robert Kramer, analyste principal chez Moor Insights and Strategy, le système de Databricks suppose un niveau de maturité des données, en particulier en ce qui concerne la qualité et la gouvernance des métadonnées, que toutes les entreprises n'ont pas encore atteint. « De plus, l'architecture exige implicitement des entreprises qu'elles codifient leur propre raisonnement dans des instructions et une logique de récupération, ce qui nécessite une collaboration plus étroite entre les équipes chargées des données, les experts du domaine et la direction, ce que de nombreuses entreprises ont du mal à réaliser », a aussi fait remarquer l’analyste.
De son côté, M. Sonawane a insisté sur la nécessité d'une observabilité dans les réponses d'Instructed Retriever si celui-ci doit être adopté dans des secteurs réglementés où la transparence dans la manière dont les données sont récupérées et filtrées est essentielle pour la conformité et la gestion des risques. « Lorsqu'une recherche standard échoue, on sait que le mot-clé ne correspondait pas. Cependant, lorsqu'un Instructed Retriever échoue, il est difficile de savoir si le modèle n'a pas réussi à raisonner ou si l'instruction de recherche elle-même était erronée », a expliqué M. Sonawane. En ce sens, il peut servir à la fois de fonctionnalité et de test. Pour les DSI, sa valeur dépendra moins du degré d'avancement de la technologie de recherche que de la maturité des données, de la gouvernance et de l'alignement interne dont disposent les entreprises pour faire fonctionner à grande échelle des systèmes d'IA sensibles aux instructions. Selon l'équipe de recherche Mosaic AI, Instructed Retriever a été intégré à Agent Bricks et les entreprises peuvent utiliser cette offre pour en faire l'expérience, en particulier dans les cas où Knowledge Assistant peut être utilisé.