LMI : Comment l’intelligence artificielle est-elle arrivée dans la stratégie d’Axa ?

Marcin Detyniecki. Le monde de l'assurance était un peu en retard sur l’informatique par rapport à d'autres secteurs. Ça fait quelques années que l’industrie s’est rendu compte de cela, et beaucoup d’entreprises se sont mises à avancer sur la transformation numérique. Dans ce cheminement, Axa a décidé d’explorer le sujet du big data, qui est lié au machine learning, lui-même étant lié à l’IA. Et donc le groupe a décidé de créer un laboratoire, le Data innovation lab, et de recruter un certain nombre de profils assez différents de ce que l’on trouve habituellement chez les assureurs, notamment des data scientists. C’est d’ailleurs dans cette vague de recrutement que je suis arrivé.

N’est-ce pas un peu surprenant, en tant qu'universitaire, de vous retrouver un dans une telle position chez Axa ?

Quand ils m’ont appelé, j’ai trouvé ça intéressant justement, c’était l’opportunité de passer de ce que l’on fait en laboratoire à quelque chose de concret, d’avoir un vrai impact sur la vie des gens. Maintenant, avec mon activité R&D, je garde des liens très forts avec l’université. Aujourd’hui, la plupart des grands groupes internationaux ont des laboratoires R&D en interne qui collaborent avec des universités dans le monde.

Quel est le profil des data scientists d'Axa ?

Aujourd’hui il ne s’agit plus simplement de gérer un back-office et de donner des droits d’accès à je ne sais quel service, mais de co-piloter l'activité. On recrute des profils IT, mais avec quelque chose en plus. L’idée c’est d’être en mesure de créer de la valeur pour Axa et pour les clients. Donc on cherche des gens qui savent programmer, mais qui sont aussi bons en modélisation, capables de comprendre le business et d’aller vers leurs collaborateurs non-techniciens pour mieux saisir les spécificités propres aux différents domaines d’activité d’Axa. On s’oriente de plus en plus vers des profils de data scientists spécialisés sur l’assurance-vie, d’autres sur la santé, d’autres sur l’automobile… C’est cette particularité qui fait selon moi la différence, mais ce type de profil est encore assez rare.

Detyniecki

Pour Marcin Detyniecki, « être data scientist, ce n'est pas simplement gérer un back-office et donner des droits d’accès à je ne sais quel service ». (Crédit : Nicolas Certes)

Combien de personnes cela représente-t-il aujourd’hui ?

Quand Axa a créé le Data innovation lab, on était à peu près une centaine. Mais à ce moment-là, l’approche était un peu différente. On essayait de créer des projets pour résoudre des situations existantes : comprendre et s’adapter au profil des assurés, optimiser les réseaux de partenaires et d’assistance, lutter contre la fraude… Mais au bout d’un moment, on s’est rendu compte que cette méthode était limitée. Alors il y a environ un an, on a décidé de changer d’approche et de dispatcher cette activité d’innovation dans les différentes entités du groupe. Et avec elle, les méthodes et les outils de travail propres à ces profils différents. Donc aujourd’hui c’est devenu un peu compliqué de savoir combien de personnes cela représente, mais ça se compte en milliers. Après il y a mon département, Rev (Research, engineering and vision), dans lequel on teste des choses, on prépare des projets qui sont susceptibles de passer en production ensuite. Ça représente une soixantaine de personnes, dont 30 ingénieurs data scientists et 10 personnes qui ne font que de la R&D et dont je suis directement responsable.

L’arrivée de ces profils a vraiment modifié les manières de travailler ?

Cela a d’abord permis aux data scientists de se spécialiser. L’assurance c’est un métier assez compliqué, il y a plein de règles, des régulations, qui changent en fonction du pays d’activité. Lorsque les data scientists travaillent avec nos différents départements, ils sont avec des spécialistes de chaque domaine, de sorte que chacun apporte quelque chose à l’autre.

Concrètement, sur quels types de projets IA travaillez-vous ?

Les choses qui sont déjà en production, ce sont les projets que j’évoquais, qui datent du début du Data innovation lab. Par exemple, on a l’optimisation des réseaux de partenaires. Il faut imaginer qu’il y a un réseau de plusieurs milliers de garages partenaires d’Axa. Il nous faut un algorithme capable de trouver le meilleur garagiste où que vous vous trouviez, dans une distance raisonnable. L’intérêt pour l’assureur, c’est que les choses se passent le mieux possible, le plus vite possible, et que l’assuré n’ait pas à revenir. Donc on essaye de détecter les garages pour lesquels les voitures ne retombent pas en panne, ceux qui ne commandent pas de pièces inutiles ou qui s’avèrent défectueuses… On fait en sorte de comprendre et d’analyser les données à notre disposition sur les différents garages partenaires, avec des modèles prédictifs instantanés.

Et sur la fraude ?

On a utilisé des algorithmes similaires au PageRank de Google. On analyse les profils des fraudeurs et les liens entre eux pour déceler leurs réseaux. On part de gens pour lesquels on a déjà détecté des cas de fraudes et on recoupe les liens pour découvrir, par exemple, qu’un garage se retrouve au centre de plusieurs cas, et donc qu’il y a des chances pour que le garagiste soit de mèche. C’est important de préciser que la preuve est juridique, ce ne sont évidemment pas les algorithmes qui décident si vous êtes ou non un fraudeur. On a aussi des cas où c’est le régulateur, l’Etat donc, qui nous demandent de faire des choses qui sont un peu compliqués à mettre en place manuellement. Par exemple, la détection de blanchiment d’argent ou de financement du terrorisme. Donc pareil, on utilise des algorithmes pour repérer les transactions suspectes. Dans le même esprit, on a développé des outils pour trouver les assurances-vie en déshérence. La personne meurt et personne ne vient récupérer l’argent placé. Pour détecter ce genre de cas, avant on faisait ça à la main, c’était assez compliqué.

Detyniecki

« L’intérêt pour l’assureur, c’est que les choses se passent le mieux possible, le plus vite possible, et que l’assuré n’ait pas à revenir », explique Marin Detyniecki. (Crédit : Nicolas Certes)

Ce type de projet, on peut imaginer qu’il connait des loupés entre le labo et la mise en production.

L’idée c’est d’être le plus vite possible en face du client. Ce qu’il faut éviter à tout prix c’est la méthode cascade, c’est-à-dire arriver avec son produit fini que l’on trouve parfait et que le client, interne ou externe, nous dise « mais en fait c’est pas ça du tout qu’il fallait ». Il faut tout de suite se demander ce que ça apporte au client.

Qu’en est-il des projets à venir, des défis à relever ?

En ce moment on explore des projets avec la vision par ordinateur, la computer vision. Par exemple, on essaye d’analyser l'impact des catastrophes naturelles. On regarde où il y a déjà eu des inondations. Avec la vision par ordinateur, on est en mesure de comprendre ce qu’il s’est vraiment passé, de mieux évaluer les risques. Cela nous permet de bien estimer les réserves nécessaires aux dédommagements et éventuellement d'ajuster le coût de l’assurance, pour cette zone ou au global, en fonction de la mutualisation imposé par la société via la réglementation. On utilise aussi la computer vision pour automatiser certains processus et permettre aux clients d’aller plus vite. Par exemple, quand les gens doivent remplir un constat, ils sont stressés, ils écrivent n’importe comment, c’est une catastrophe ! Sauf qu’après il y a des gens de chez nous qui essayent de les lire, ces constats, ce n’est pas toujours facile pour eux. Donc on essaye d’automatiser la lecture afin de faciliter le travail de nos gestionnaires de sinistres, c’est un projet en cours. On n’y est pas encore, mais si on y arrive, on fait gagner un temps fou au client, tout en garantissant un traitement plus juste. La machine, elle va lire tout dans le détail. C’est la même chose pour les dommages carrosserie sur une voiture, l’assuré prend les photos et si les dégâts sont minimes, il peut avoir une estimation rapide du coût des réparations sans avoir à passer par un expert.

L’IA est en quelques sortes en train de modifier la stratégie d’Axa sur de nombreux points…

En effet, nous passons d’une position de payeur, celui qui vous rembourse les factures, à un statut de partenaire pour les clients. C’est une évolution amenée par l’IA. Avant, on ne pouvait pas mettre une infirmière ou un expert derrière chaque client, c’était financièrement impossible. Avec l’IA, évidemment, on ne peut pas encore se mettre au niveau d’un spécialiste, mais on peut faire plein de choses de manière beaucoup plus simple, au cas par cas. Proposer du coaching pour un client atteint de diabète qui veut perdre du poids, mettre des chatbots pour guider les habitants d’un immeuble dont le réseau électrique vient de tomber en panne… Et c’est aussi bénéfique en interne. On peut par exemple prévoir le nombre de personnes nécessaires sur un plateau de téléassistance en fonction des fréquences d’appel, pour des périodes de départ en vacances ou ce genre de chose.

Quelles sont les contraintes du travail avec l’IA ?

Pour moi il y a trois sujets. D’abord, il y a l’atténuation des biais discriminatoires, l’impartialité. Le régulateur impose des normes. Par exemple, il nous demande de ne pas utiliser la variable « genre », pour ne pas faire de discrimination entre les hommes et les femmes. Sauf que quand vous préparez un algorithme avec beaucoup de variables, sans le vouloir, vous allez être en mesure de prédire le genre. L’algorithme sera forcément capable de faire la différence entre un homme et une femme, de manière indirecte. Selon la taille de la voiture, sa couleur, etc. La question c’est comment enlever ces variables sensibles pour de bon. On a mis au point un algo qui nous permet de garantir qu’on les a vraiment enlevées. On impose mathématiquement au programme que la probabilité d’accident pour un conducteur qu’il sait être un homme doit être la même que s’il s’agit d’une femme. Le deuxième sujet, c’est l’explicabilité. Le machine learning produit ses propres algorithmes. On se retrouve avec des modèles très performants avec des millions de paramètres. On nous demande de la transparence, mais en fait, est-ce que ça aiderait vraiment ? Je pourrais vous dire « Je vous refuse un emprunt » en vous donnant tous mes paramètres pour vous connaissiez les raisons de ce refus. Mais vous en faites quoi de ces 5 millions de paramètres ? Vous ne pouvez pas les comprendre. Donc nous ce qu’on veut faire, c’est d’essayer de comprendre la prédiction et la traduire pour vous expliquer pourquoi vous n’avez pas eu l’emprunt et ce que vous pouvez éventuellement faire pour changer cette situation.

Detyniecki

« Pour mettre sur pied un algorithme de Natural language processing, il faut donner à la machine plus d’informations qu’un humain ne pourrait lire pendant toute sa vie », rappelle le chief group data scientist d'Axa. (Crédit : Nicolas Certes)

Et le dernier sujet ?

La robustesse. On peut tromper des algos très complexes, par exemple ceux issus du deep learning, via ce qu’on appelle des attaques adverses. Il faut faire en sorte que les explications que l’on donne ne soient pas des artefacts du machine learning. Sinon, comment puis-je savoir que les explications qu’on me donne sont vraies, et pas quelque chose qui a été créé par la machine ? On ne peut pas faire aveuglément confiance aux algos. Ce ne sont pas des machines pensantes, elles ne font que de la perception pour le moment. Pour moi, l’intelligence artificielle et l’intelligence humaine, c’est comparable à un avion et un oiseau. Les deux volent, il y a un certain nombre de principes qui sont les mêmes, mais ça ne fonctionne pas du tout de la même façon. Contrairement à l’oiseau, l’avion a besoin de beaucoup d’énergie pour voler, tout comme la machine a besoin de beaucoup de données pour fonctionner correctement. Pour mettre sur pied un algorithme de traitement automatique du langage naturel (Natural language processing, NLP), il faut donner à la machine plus d’informations qu’un humain ne pourrait lire pendant toute sa vie. Par contre, une fois que c’est fait, on peut arriver à des performances bien meilleures qu’avec un humain. Pour filer la métaphore, l’avion peut traverser d’un coup des océans, contrairement à l’oiseau, mais il ne peut pas imiter le vol d’un colibri. Machines et humains seront probablement toujours complémentaires.