Microsoft 365 Copilot s'enrichit avec l'ajout de Claude Sonnet 4 et Claude Opus 4.1 d’Anthropic, aux côtés de la famille GPT d’OpenAI. Désormais, les utilisateurs peuvent basculer entre les différents modèles au sein de l’agent Researcher ou lors de la création d’agents dans Copilot Studio. « Copilot continuera d’être alimenté par les modèles d’OpenAI, mais nos clients ont désormais la possibilité d’utiliser également ceux d’Anthropic », a déclare Charles Lamanna, président de la division Business & Industry Copilot chez Microsoft dans un article de blog.

Les LLM Claude dans Researcher sont désormais déployés auprès des clients disposant d’une licence pilote Microsoft 365 et inscrits au programme Frontier. Ce dernier offre un accès anticipé aux dernières innovations en IA de Microsoft 365. Les utilisateurs peuvent également activer Claude dans Copilot Studio pour concevoir des agents personnalisés.

Researcher, un agent de raisonnement multi-modèles

Microsoft présente Researcher comme un agent dédié au raisonnement, désormais capable de s’appuyer sur les modèles d’OpenAI ou sur Claude Opus 4.1 pour effectuer des analyses complexes. L’outil aide les utilisateurs à construire des stratégies de mise sur le marché, étudier les tendances émergentes ou produire des rapports trimestriels détaillés. Il peut travailler à partir de données issues du web, de sources tierces de confiance et de contenus internes à l’entreprise, tels que les emails, réunions ou fichiers.

Dans Copilot Studio, les modèles Claude Sonnet 4 et Claude Opus 4.1 offrent la possibilité de concevoir et de personnaliser des agents métiers capables d’orchestrer des tâches d’automatisation, d’analyse ou de raisonnement approfondi. L'entreprise souligne que les utilisateurs peuvent combiner différents modèles comme Anthropic, OpenAI ou d’autres issus du catalogue Azure AI Model pour des usages spécialisés.

Des modèles aux profils complémentaires

Microsoft positionne Claude comme une alternative complémentaire aux modèles GPT. D’après les essais menés, le modèle s’avère plus efficace pour produire des présentations et des modèles financiers, tandis que GPT se distingue par sa rapidité et sa fluidité rédactionnelle. Pour Sanchit Vir Gogia, CEO et analyste en chef chez Greyhound Research, le choix du modèle doit être guidé par le type de charge de travail. Ainsi, Claude offre davantage de cohérence et de fiabilité dans les sources, mais présente une latence et un coût supérieurs. Des son côté, GPT reste plus rapide, mais parfois moins rigoureux.

Jusqu’ici étroitement associé à OpenAI, Copilot gagne en robustesse avec l’arrivée des modèles d’Anthropic. Les interruptions de ChatGPT survenues ces derniers mois ont rappelé les limites d’une dépendance à un seul fournisseur. En élargissant son catalogue, la société cherche à renforcer la continuité de service. « Alors que Microsoft 365 Copilot et ChatGPT Enterprise s’imposent comme les assistants d’IA privilégiés par les organisations déployant l’IA en entreprise, Microsoft adapte son offre aux évolutions du marché en multipliant les options et en consolidant sa position », souligne Max Goss, directeur principal analyste chez Gartner. 

Des implications techniques et réglementaires

Les modèles GPT d’OpenAI s’exécutent sur Azure, tandis que ceux d’Anthropic reposent sur AWS. Chaque appel à Claude entraîne donc un transfert de données entre clouds, impliquant des questions de latence, de coûts et de gouvernance. Microsoft rappelle que Claude est hébergé hors de ses environnements et soumis aux conditions d’utilisation d’Anthropic. Selon Sanchit Vir Gogia, les entreprises doivent suivre avec précision l’utilisation de chaque modèle, encadrer l’accès aux données et tracer les requêtes par utilisateur et région. Le multi-modèles implique de gérer la complexité du multi-cloud, en anticipant les délais de réponse et les exigences de conformité associées.

Pour limiter les risques, les entreprises sont invitées à restreindre l’usage de Claude à la région AWS la plus proche, à mettre en cache les contextes répétés et à valider les règles de sécurité en amont. Elles doivent également déployer des mécanismes de supervision et de journalisation dès l’adoption du modèle afin d’éviter des interventions correctives a posteriori.