Plusieurs grands assureurs ont commencé à cesser de couvrir les risques de cybersécurité et la responsabilité civile professionnelle pour les entreprises utilisant l’IA pour gérer leurs processus internes, ont expliqué des sources anonymes à CSO. Selon elles, même s’il n’existe pas de réponse standard à l’usage de l’IA par les clients, les assureurs refusent désormais discrètement de souscrire des polices pour les sinistres liés aux résultats générés par l’IA. « D’autres augmentent leurs tarifs pour couvrir ce risque », ajoutent ces mêmes sources. Une approche constatée par Connor Deeks, CEO de Codestrap, entreprise de développement et de conseil en IA qui travaille avec des assureurs : « ils sont nombreux à revoir leur couverture sur les erreurs liées à l’IA ». Pour lui, le principal écueil est qu’ils « ne peuvent pas retracer le raisonnement suivi par la technologie pour aboutir à un résultat ». La conséquence « se répercute en aval avec une réduction considérable de la couverture que ce soit en matière de cybersécurité et d’erreurs et omissions », constate le dirigeant. Il souligne que « toute ces solutions basées sur des algorithmes et ces systèmes IA que les sociétés ont construits comportent désormais un risque inhérent, et on ne peut pas réellement voir l’ensemble du processus. »

C’est en novembre 2025 que les inquiétudes des assureurs concernant les risques liés à l'IA ont fait surface pour la première fois, quand le Financial Times a rapporté que trois grands assureurs, AIG, Great American et W.R. Berkley, avaient déposé des demandes auprès des autorités de régulation américaines afin de proposer des polices d'assurance excluant les responsabilités liées aux outils IA comme les chatbots et les agents virtuels. « À l'époque, ces demandes visant à obtenir l'autorisation d'exclure les erreurs liées à l'IA à l'avenir semblaient préventives. Mais aujourd'hui, de nombreux assureurs projettent d’exclure les erreurs de l'IA de leurs contrats », a expliqué Connor Deeks.

Exclusion de couverture ou hausse sensible des tarifs

De son côté, Jason Bishara, responsable du secteur financier chez l’assureur mondial NSI Insurance Group confirme cette orientation, « nous ne savons pas encore combien d’assureurs refuseront de couvrir les charges de travail IA, mais plusieurs d’entre eux rédigent désormais des polices d’assurance qui excluent la couverture des perturbations business liées à l’IA ». D’autres vont plus loin glisse-t-il, « certains retirent purement et simplement l’IA de leur champ de couverture et refusent carrément d’émettre des devis ». Si des assureurs augmentent leur tarif pour compenser le risque, Jason Bishara ne dispose pas de chiffres sur l’ampleur de ces hausses tout en ajoutant qu’elles sont significatives. Autre constat, les assureurs posent beaucoup de questions détaillées sur la manière dont les clients se servent de l’IA afin de mieux comprendre le risque lié à la couverture d’éventuels incidents, observe le responsable. Les interrogations portent « sur la politique IA, les procédures mises en place, l’exploitation de la technologie au sein des entreprises ».

Phil Karecki, directeur technique pour le secteur de l’assurance chez la SSII Ensono, rejoint Jason Bishara sur la difficulté à évaluer le nombre d’assureurs qui ne couvrent pas les risques IA. Il n’est pas certain que cette tendance soit majoritaire et estime que les compagnies expérimentent en permanence différentes façons d’offrir une couverture. Pour lui, ces sociétés essayent de distinguer si les déploiements IA sont encadrés, gouvernés ou s’il s’agit de projets expérimentaux plus dangereux. « La question n’est plus de savoir si l’entreprise se sert de l’IA, mais si elle est contrôlée et comment elle en garantit la sécurité et la sûreté », poursuit le dirigeant. Dans ce cadre, les exclusions des polices d’assurance sont à appréhender comme « un repositionnement plutôt que d’un retrait, ce qui est très courant dans le secteur », note-t-il. Les assureurs « prennent désormais des décisions en fonction de l’activité à assurer, à quoi sert l’IA, comment elle est encadrée et quels risques elle introduit », complète-t-il.

Les assureurs en quête d'informations

Compte tenu du niveau actuel de fiabilité de la plupart des systèmes IA, Dorian Smiley, CTO chez Codestrap, trouve logique que certains assureurs commencent à se demander s’ils doivent couvrir les résultats de l’IA. Selon lui, mathématiquement, ces modèles devraient être déterministes : à une même entrée devrait correspondre une même sortie. « Mais on peut obtenir des résultats très différents à partir d’une même entrée, et ils ne peuvent pas savoir si la réponse qu’ils vous donnent est réellement correcte », a-t-il expliqué. « Dans la plupart des cas, les modèles IA sont dépourvus de raisonnement et ne sont pas capables d’évaluer leur propre travail, mais de nombreuses entreprises envisagent de déployer des centaines d’agents autonomes et de les traiter comme des collaborateurs numériques », a-t-il fait remarquer. « L’idée que ces agents deviennent des employés, des personnes autonomes travaillant au sein de l’entreprise, est absurde », a-t-il commenté. « Une entreprise n’embauchera jamais une personne incapable d’assimiler de nouvelles informations, de récupérer des données de manière fiable ou de vérifier son propre travail. »

Jason Bishara, du NSI Insurance Group, conseille aux responsables IT et aux dirigeants d’entreprise qui cherchent une couverture d’assurance pour leurs charges de travail IA d’être honnêtes sur la manière dont ils les utilisent. « S’ils tentent de dissimuler leurs risques liés à l’IA, ils pourraient très bien voir leurs demandes d’indemnisation rejetées en cas de problème », a-t-il mis en garde. « S’ils ne partagent pas toutes les informations sur leur mode de fonctionnement et d’exploitation, ils pourraient se voir refuser une demande d’indemnisation ultérieurement », a-t-il justifié. « Personne n’a envie d'entendre un assureur lui dire qu’un risque n’est pas couvert parce qu’il n’a pas répondu clairement aux questions qui lui ont été posées. »