Alors que les entreprises de services financiers se tournent de plus en plus vers l'intelligence artificielle pour améliorer leur efficacité et obtenir un avantage sur leurs concurrents, l'adoption de cette technologie de pointe s’accompagne d’un certain nombre de risques et de préoccupations. Un rapport publié à la fin de l’année dernière par le Conseil de stabilité financière (CSF), l’organisme international chargé depuis 2009 par le G20 de surveiller et de faire des recommandations concernant le système financier mondial, soulève plusieurs questions quant à l’usage de l'intelligence artificielle dans le secteur bancaire, en particulier les risques que pourrait faire peser la technologie sur la stabilité financière.

Le rapport s’inquiète également du « manque d'interprétabilité ou d'auditabilité des méthodes d’intelligence artificielle et d'apprentissage machine et du risque que cela pourrait représenter au niveau macro-économique ». Toujours selon ce rapport, « l'utilisation généralisée de modèles opaques pourrait avoir des conséquences inattendues ». L'organisme international met également en garde contre le remplacement des personnels humains par l'IA, opération qui selon lui « aurait la capacité potentielle d'amplifier les chocs financiers ». Mais le rapport du CSF met également en évidence quelques aspects potentiellement positifs. Celui-ci estime par exemple que « le traitement plus efficace de l'information dans les décisions de crédit, les marchés financiers, les contrats d'assurance et les interactions avec les clients peut contribuer à rendre le système financier plus efficace ». Il note aussi que « l’usage de l'intelligence artificielle et de l'apprentissage machine par les régulateurs et les superviseurs peuvent contribuer à améliorer la conformité réglementaire et le contrôle ».

Comment contrôler les algorithmes 

La semaine dernière, lors du Deep Learning in Finance Summit qui s’est tenu les 15 et 16 mars à Londres, nos confrères de Computerworld UK ont demandé à Ajwad Hashim, vice-président pour l'innovation et les technologies émergentes chez Barclays, quelles étaient ses principales préoccupations quant à l'adoption de l'intelligence artificielle par une banque vieille de 300 ans, au moment où l’institution britannique envisage d’injecter de l'intelligence artificielle dans toutes ses activités, aussi bien de l'apprentissage machine, de l'analyse prédictive que le traitement du langage naturel (NLP) et les chatbots, comme l’a déclaré Ajwad Hashim. La banque utilise ces techniques au niveau du front-office, pour fidéliser la clientèle et pour les recommandations de produits, mais aussi au niveau du back-office où elle recourt au traitement du langage naturel pour extraire des informations des formulaires de demande manuscrits. Comme le reconnaît le vice-président pour l'innovation et les technologies émergentes, ces techniques améliorent grandement l'efficacité opérationnelle de la banque, mais elles présentent aussi des risques pour l'entreprise.

L'IA à l'origine de 4 grands risques sur les banques

1 - La sécurité des données

C’est, selon lui le premier risque. « Le plus grand risque concerne la qualité des données », a expliqué M. Hashim. « La plupart des banques stockent leurs quantités massives de données dans des systèmes en silo, ce qui leur permet d’avoir la certitude d’utiliser des données propres, de stocker et d’utiliser les données de manière adéquate pour se protéger contre les fuites de données et enfin, que les modèles qu’elles développent reposent sur les bonnes données ». Par contre, en ce qui concerne les modèles d'IA, et dans le cas présent, de l'analyse prédictive, mais aussi du traitement du langage naturel, la pertinence de l’analyse réside dans les données utilisées pour entraîner ces algorithmes », a ainsi expliqué M. Hashim. « Dans le secteur des services financiers, une grande partie des données que nous détenons sont confidentielles, aussi bien les informations personnelles de nos clients que celles relevant de l’activité d’une entreprise. Un certain nombre de risques sont liés à la façon dont nous manipulons et utilisons ces données. Je dirais en premier lieu qu'il faut s'assurer que les données se trouvent dans un environnement sécurisé et qu'il n'y a pas de fuite. En particulier quand nous travaillons avec des acteurs extérieurs comme les Fintechs » 

Il convient de souligner ici que la définition d'un standard API sécurisé pour partager les données avec les Fintechs est un élément central de la politique de déréglementation bancaire et de l’ouverture des marchés actuellement menée en Europe. Selon Ajwad Ashim, la garantie de transparence est la meilleure manière de gérer ce risque. « La façon dont nous utilisons ces données et la confiance que nous ont accordée nos clients nous imposent la prudence et la transparence sur l’usage de leurs données est tout à fait essentielle », a-t-il encore déclaré. « Une autre solution consiste à utiliser des données masquées. On peut la mettre en œuvre assez rapidement. La plupart des banques réalisent d’ailleurs leurs tests en utilisant des données masquées et elles créent leurs modèles dans des environnements sécurisés pour valider les résultats ».

2 - Des algorithmes opaques

Un autre problème est d'expliquer aux organismes de réglementation comment fonctionnent les systèmes IA. Selon Ajwad Hashim, « il est très important de comprendre comment fonctionnent ces modèles et leur logique de décisions. Mais il est très difficile de comprendre pourquoi ils aboutissent à un résultat. Pour la plupart des banques, c’est un défi assez difficile à relever, d'expliquer cela à l'organisme de réglementation ». Car même si ces modèles peuvent fournir de meilleurs résultats que les modèles de régression linéaire traditionnels, il est toujours difficile de comprendre pourquoi ils fonctionnent mieux. La semaine dernière, lors du Global Summit Innovate Finance qui se tenait à Londres (19 et 20 mars), Jesse McWaters, responsable de l'innovation financière au Forum économique mondial, plus connu sous l’appellation de Forum de Davos, a déclaré à ce sujet : « Il est clair que dans ce domaine, cette incertitude, qui a un effet potentiellement dissuasif, est une préoccupation pour les institutions financières ». Si celui-ci estime que la question de l'interprétabilité des modèles est quelque peu excessive, il pense qu’il faut « se demander dans quelle situation le fait que les modèles ne soient pas facilement compréhensibles est important ». 

3 - Un biais intrinsèque

Il y a aussi la question de la partialité inhérente. Ajwad Hashim pose la question suivante : « Certains problèmes peuvent survenir en cas d'utilisation d'informations biaisées ». Il se demande aussi comment vérifier que l'information utilisée par ces modèles n'est pas orientée vers un résultat particulier. « C’est le cas des demandes de prêts, par exemple. Nous devons faire attention, quand nous utilisons la notation de crédit, à ne pas segmenter notre base client et éviter que ce scoring soit moins avantageux pour certains d’entre eux à cause de points de données particuliers ». 

4 - La perception du public

Enfin, une préoccupation plus large concerne le rejet du public. Une fois encore, le récent scandale impliquant Cambridge Analytica et Facebook a montré les risques que peuvent faire peser de mauvaises pratiques en matière de données sur une entreprise qui inspirait la confiance. « Dans le cas d’une banque, le risque en terme de réputation existe aussi. Si nous ne nous engageons pas dans ce genre de projets en toute connaissance de cause et en toute transparence, le public pourrait nous reprocher de ne pas utiliser les données de manière appropriée et contester la validité des modèles que nous avons créés », a-t-il déclaré.